Microscopie à super-résolutionLa microscopie à super-résolution est un ensemble de techniques permettant d'imager en microscopie optique des objets à une résolution à l’échelle nanométrique. Elle se démarque par le fait que la résolution obtenue n'est plus limitée par le phénomène de diffraction. Du fait de la diffraction de la lumière, la résolution d’un microscope optique conventionnel est en principe limitée, indépendamment du capteur utilisé et des aberrations ou imperfections des lentilles.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Microscope confocalvignette|upright=2|Schéma de principe du microscope confocal par Marvin Minsky en 1957. vignette|upright=1.5|Principe de fonctionnement du microscope à fluorescence puis du microscope confocal. Un microscope confocal, appelé plus rarement microscope monofocal, est un microscope optique qui a la propriété de réaliser des images de très faible profondeur de champ (environ ) appelées « sections optiques ».
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Microscope optiqueLe microscope optique ou microscope photonique est un instrument d'optique muni d'un objectif et d'un oculaire qui permet de grossir l'image d'un objet de petites dimensions (ce qui caractérise sa puissance optique) et de séparer les détails de cette image (et son pouvoir de résolution) afin qu'il soit observable par l'œil humain. Il est utilisé en biologie, pour observer les cellules, les tissus, en pétrographie pour reconnaître les roches, en métallurgie et en métallographie pour examiner la structure d'un métal ou d'un alliage.
Modèle statistiqueUn modèle statistique est une description mathématique approximative du mécanisme qui a généré les observations, que l'on suppose être un processus stochastique et non un processus déterministe. Il s’exprime généralement à l’aide d’une famille de distributions (ensemble de distributions) et d’hypothèses sur les variables aléatoires X1, . . ., Xn. Chaque membre de la famille est une approximation possible de F : l’inférence consiste donc à déterminer le membre qui s’accorde le mieux avec les données.
Multiple comparisons problemIn statistics, the multiple comparisons, multiplicity or multiple testing problem occurs when one considers a set of statistical inferences simultaneously or infers a subset of parameters selected based on the observed values. The more inferences are made, the more likely erroneous inferences become. Several statistical techniques have been developed to address that problem, typically by requiring a stricter significance threshold for individual comparisons, so as to compensate for the number of inferences being made.
Loi bêtaDans la théorie des probabilités et en statistiques, la loi bêta est une famille de lois de probabilités continues, définies sur , paramétrée par deux paramètres de forme, typiquement notés (alpha) et (bêta). C'est un cas spécial de la loi de Dirichlet, avec seulement deux paramètres. Admettant une grande variété de formes, elle permet de modéliser de nombreuses distributions à support fini. Elle est par exemple utilisée dans la méthode PERT. Fixons les deux paramètres de forme α, β > 0.
Microscopie à fluorescenceLa microscopie en fluorescence (ou en épifluorescence) est une technique utilisant un microscope optique en tirant profit du phénomène de fluorescence et de phosphorescence, au lieu de, ou en plus de l'observation classique par réflexion ou absorption de la lumière visible naturelle ou artificielle. On peut ainsi observer divers objets, substances (organiques ou inorganiques) ou échantillons d'organismes morts ou vivants. Elle fait désormais partie des méthodes de recherche classiques et de la biologie et continue à se développer avec l'.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Signification statistiquevignette|statistique En statistiques, le résultat d'études qui portent sur des échantillons de population est dit statistiquement significatif lorsqu'il semble exprimer de façon fiable un fait auquel on s'intéresse, par exemple la différence entre 2 groupes ou une corrélation entre 2 données. Dit autrement, il est alors très peu probable que ce résultat apparent soit en fait trompeur s'il n'est pas dû, par exemple, à un , trop petit ou autrement non représentatif (surtout si la population est très diverse).
Microscopie par excitation à deux photonsvignette|350px|Microscopie par excitation à 2 photons de l'intestin d'une souris. Rouge: actine. Vert: noyaux des cellules. Bleu: mucus des cellules caliciformes. Obtenu à 780 nm avec un laser Ti-sapph. La microscopie par excitation à deux photons (M2P, TPEF ou 2PEF en anglais, aussi appelée « microscopie 2 photons ») est une technique d'imagerie optique combinant les principes de microscopie à fluorescence et de l'absorption à deux photons, faisant partie de la famille des microscopies multiphotons.
Immunofluorescencevignette|Des cardiomyocytes en culture, marqués par immunofluorescence. En bleu, le noyau des cellules. En vert, les filaments d'actine. L’immunofluorescence est une technique d’immunomarquage, qui utilise des anticorps ainsi que des fluorochromes. L'immunofluorescence permet de révéler une protéine spécifique directement dans la cellule, par émission de fluorescence. Elle permet donc de déterminer non seulement la présence, ou l'absence d'une protéine, mais aussi sa localisation dans la cellule, ou le tissu analysé.
Démonstration (logique et mathématiques)vignette| : un des plus vieux fragments des Éléments d'Euclide qui montre une démonstration mathématique. En mathématiques et en logique, une démonstration est un ensemble structuré d'étapes correctes de raisonnement. Dans une démonstration, chaque étape est soit un axiome (un fait acquis), soit l'application d'une règle qui permet d'affirmer qu'une proposition, la conclusion, est une conséquence logique d'une ou plusieurs autres propositions, les prémisses de la règle.
Petite moléculeEn biochimie, une petite molécule est un composé organique de faible masse moléculaire qui par définition n'est pas un polymère. En pharmacologie, ce terme est restreint aux molécules qui ont une forte affinité pour des biopolymères tels que des protéines, les acides nucléiques ou les polysaccharides et modifient leur fonction ou leur activité biologique en se liant à eux. On fixe à environ la borne supérieure de la masse d'une petite molécule, ce qui correspond à la limite en dessous de laquelle les molécules peuvent diffuser à travers la membrane cellulaire pour atteindre leur cible à l'intérieur de la cellule.
Pore nucléaireLes pores nucléaires sont de grands complexes protéiques (poids moléculaire estimé à 125 000 kDa) traversant l'enveloppe nucléaire, qui est une double membrane entourant le noyau des cellules eucaryotes. Les pores nucléaires permettent les échanges entre le noyau et le cytoplasme. Il existe environ 100 protéines de types différents appelées nucléoporines qui entrent dans la composition du pore. Il y a entre 2000 et 6000 pores par noyaux (1/3 de la surface).
Proof (truth)A proof is sufficient evidence or a sufficient argument for the truth of a proposition. The concept applies in a variety of disciplines, with both the nature of the evidence or justification and the criteria for sufficiency being area-dependent. In the area of oral and written communication such as conversation, dialog, rhetoric, etc., a proof is a persuasive perlocutionary speech act, which demonstrates the truth of a proposition.
Membrane nucléairethumb|350px L'enveloppe nucléaire, ou membrane nucléaire, est une double membrane biologique délimitant les contours du noyau qui contient l'ADN de la cellule eucaryote. Elle est pourvue de nombreux pores permettant le contrôle des échanges entre le cytoplasme et le nucléoplasme, en particulier les ARN messagers. Cette membrane est constituée par une double bicouche phospholipidique Une bicouche externe en continuité avec les membranes du réticulum endoplasmique. Elle est considérée comme une forme différenciée de ce dernier.
Reconnaissance de formesthumb|Reconnaissance de forme à partir de modélisation en 3D La reconnaissance de formes (ou parfois reconnaissance de motifs) est un ensemble de techniques et méthodes visant à identifier des régularités informatiques à partir de données brutes afin de prendre une décision dépendant de la catégorie attribuée à ce motif. On considère que c'est une branche de l'intelligence artificielle qui fait largement appel aux techniques d'apprentissage automatique et aux statistiques.