CommunicationLa communication est l'ensemble des interactions avec un tiers humain ou animal qui véhiculent une ou plusieurs informations. En dehors de la communication animale, on distingue chez l'être humain, la communication interpersonnelle, la communication de groupe et la communication de masse, c'est-à-dire de l'ensemble des moyens et techniques permettant la diffusion du message d'une organisation sociale auprès d'une large audience. Plusieurs disciplines emploient la notion de communication sans s'accorder sur une définition commune.
Communication organisationnelleLa communication organisationnelle est l'étude de la communication subordonnée à l'action organisée. C'est aussi l'ensemble des moyens de communication mis en œuvre pour la réalisation d'une tâche organisée. Dans le domaine de la recherche, aux États-Unis ce champ de recherche relève tout naturellement des communication studies, en France la communication organisationnelle est un domaine qui peut être revendiqué par des chercheurs des Sciences de l'Information et de la Communication, mais aussi en Sociologie des organisations, ou encore en sciences de gestion.
Relation interpersonnelleLes relations interpersonnelles, domaine relatif aux relations humaines, ont lieu lorsqu'au moins deux personnes sont en interaction. Il s'agit d'un sujet d'étude clé de la psychologie sociale pour la compréhension des rapports ayant lieu au sein de petits groupes de personnes ou plus largement à l'intérieur de groupes sociaux. Ce sujet étudie comment les comportements individuels sont influencés par ceux des autres personnes et s'y opposent ou s'y adaptent. Il intéresse aussi la sociologie au niveau de la structuration des relations humaines.
Communication theoryCommunication theory is a proposed description of communication phenomena, the relationships among them, a storyline describing these relationships, and an argument for these three elements. Communication theory provides a way of talking about and analyzing key events, processes, and commitments that together form communication. Theory can be seen as a way to map the world and make it navigable; communication theory gives us tools to answer empirical, conceptual, or practical communication questions.
Compression de donnéesLa compression de données ou codage de source est l'opération informatique consistant à transformer une suite de bits A en une suite de bits B plus courte pouvant restituer les mêmes informations, ou des informations voisines, en utilisant un algorithme de décompression. C'est une opération de codage qui raccourcit la taille (de transmission, de stockage) des données au prix d'un travail de compression. Celle-ci est l'opération inverse de la décompression.
Droits de la communicationLes droits de la communication englobent la liberté d'opinion et d'expression, la gouvernance démocratique des médias, la concentration des médias et le contrôle des médias, la participation à sa propre culture, le droit de choisir sa langue, les droits à l'éducation, la confidentialité, la liberté de réunion et le droit des peuples à disposer d'eux-mêmes. Ils concernent aussi l'inclusion et l'exclusion sociales, la qualité des moyens de communication et leur accessibilité.
Algorithme de compression sans pertevignette|Comparaison de la compression d'image entre les formats JPG (à gauche) et PNG (à droite). PNG utilise une compression sans perte. On appelle algorithme de compression sans perte toute procédure de codage ayant pour objectif de représenter une certaine quantité d'information en utilisant ou en occupant un espace plus petit, permettant ainsi une reconstruction exacte des données d'origine. C'est-à-dire que la compression sans perte englobe les techniques permettant de générer un duplicata exact du flux de données d'entrée après un cycle de compression/expansion.
Communication non verbaleLa communication non verbale (ou langage du corps) désigne tout échange n'ayant pas recours à la parole. Elle ne repose pas sur les mots (pratiques linguistiques), mais sur plusieurs champs extralinguistiques correspondant à des signaux sociaux ou catégories fonctionnelles, objets d'études de différentes disciplines : communication para-verbale (communication vocale comprenant les traits prosodiques, les onomatopées, le rire, la toux, et parfois distinguée de la communication non verbale) analysée par la , gestes (mouvements du corps, gestuelle, actions et réactions) et expressions faciales (dont les micro-expressions) étudiés par la kinésique et la gestique, contact visuel et rôle du regard (clin d'œil complice, regard désapprobateur ou sceptique.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
AnthroposémiotiqueAnthroposémiotique est un synonyme rare de communication humaine, formé dans les années 1970 sur les racines grecques anthropo, désignant l'espèce humaine, et sémio, désignant les signes. Un premier courant trouve ses racines contemporaines chez l'anthropologue Grégory Bateson qui a fondé au le courant de pensée connu en France sous le nom de Ecole de Palo Alto. Il est revisité au en France par Béatrice Galinon-Mélénec via le paradigme de l'"Ichnos-Anthropos" ("Homme-trace") qui analyse la perception et l'interprétation des signes par un humain dont la relation au monde est filtrée par un "corps-trace" non dualiste (corps et esprit).
Compression d'imageLa compression d'image est une application de la compression de données sur des . Cette compression a pour utilité de réduire la redondance des données d'une image afin de pouvoir l'emmagasiner sans occuper beaucoup d'espace ou la transmettre rapidement. La compression d'image peut être effectuée avec perte de données ou sans perte. La compression sans perte est souvent préférée là où la netteté des traits est primordiale : schémas, dessins techniques, icônes, bandes dessinées.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Acquisition compriméeL'acquisition comprimée (en anglais compressed sensing) est une technique permettant de trouver la solution la plus parcimonieuse d'un système linéaire sous-déterminé. Elle englobe non seulement les moyens pour trouver cette solution mais aussi les systèmes linéaires qui sont admissibles. En anglais, elle porte le nom de Compressive sensing, Compressed Sampling ou Sparse Sampling.
Sciences de l'information et de la communicationthumb|Schéma simpliste de la transmission linéaire de l'information dans la communication (paradigme mécaniste) Les sciences de l'information et de la communication (SIC) forment un champ de recherches universitaires, connu sous ce nom en France, Belgique, Suisse, Algérie et au Maroc. Au Québec, on se réfère aux études en « Communication » ou « Science de l'information ». Créée en France au cours du , en écho aux américaines ou à la allemande, cette nouvelle discipline se fonde sans que les chercheurs qui y participent ne partagent un paradigme commun.
Algorithmethumb|Algorithme de découpe d'un polygone quelconque en triangles (triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryptographie, le routage d'informations, la planification et l'utilisation optimale des ressources, le , le traitement de textes, la bio-informatique L' algorithme peut être mis en forme de façon graphique dans un algorigramme ou organigramme de programmation.
Lossy compressionIn information technology, lossy compression or irreversible compression is the class of data compression methods that uses inexact approximations and partial data discarding to represent the content. These techniques are used to reduce data size for storing, handling, and transmitting content. The different versions of the photo of the cat on this page show how higher degrees of approximation create coarser images as more details are removed. This is opposed to lossless data compression (reversible data compression) which does not degrade the data.
Communication animaleLa communication animale regroupe l'ensemble des échanges d'information entre des individus d'une même espèce (communication intraspécifique) ou d'espèces différentes (communication extraspécifique) chez les animaux. Les animaux communiquent entre eux pour différentes raisons : séduction du partenaire, compétition pour les ressources, recherche de nourriture. Ils utilisent pour cela un signal ou un message (support physique de l'information), comme une odeur, un son, un mouvement, ou un signal électrique.
Compression artifactA compression artifact (or artefact) is a noticeable distortion of media (including , audio, and video) caused by the application of lossy compression. Lossy data compression involves discarding some of the media's data so that it becomes small enough to be stored within the desired or transmitted (streamed) within the available bandwidth (known as the data rate or bit rate). If the compressor cannot store enough data in the compressed version, the result is a loss of quality, or introduction of artifacts.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Algorithme de rechercheEn informatique, un algorithme de recherche est un type d'algorithme qui, pour un domaine, un problème de ce domaine et des critères donnés, retourne en résultat un ensemble de solutions répondant au problème. Supposons que l'ensemble de ses entrées soit divisible en sous-ensemble, par rapport à un critère donné, qui peut être, par exemple, une relation d'ordre. De façon générale, un tel algorithme vérifie un certain nombre de ces entrées et retourne en sortie une ou plusieurs des entrées visées.