CommunicationLa communication est l'ensemble des interactions avec un tiers humain ou animal qui véhiculent une ou plusieurs informations. En dehors de la communication animale, on distingue chez l'être humain, la communication interpersonnelle, la communication de groupe et la communication de masse, c'est-à-dire de l'ensemble des moyens et techniques permettant la diffusion du message d'une organisation sociale auprès d'une large audience. Plusieurs disciplines emploient la notion de communication sans s'accorder sur une définition commune.
Relation interpersonnelleLes relations interpersonnelles, domaine relatif aux relations humaines, ont lieu lorsqu'au moins deux personnes sont en interaction. Il s'agit d'un sujet d'étude clé de la psychologie sociale pour la compréhension des rapports ayant lieu au sein de petits groupes de personnes ou plus largement à l'intérieur de groupes sociaux. Ce sujet étudie comment les comportements individuels sont influencés par ceux des autres personnes et s'y opposent ou s'y adaptent. Il intéresse aussi la sociologie au niveau de la structuration des relations humaines.
Communication organisationnelleLa communication organisationnelle est l'étude de la communication subordonnée à l'action organisée. C'est aussi l'ensemble des moyens de communication mis en œuvre pour la réalisation d'une tâche organisée. Dans le domaine de la recherche, aux États-Unis ce champ de recherche relève tout naturellement des communication studies, en France la communication organisationnelle est un domaine qui peut être revendiqué par des chercheurs des Sciences de l'Information et de la Communication, mais aussi en Sociologie des organisations, ou encore en sciences de gestion.
Communication theoryCommunication theory is a proposed description of communication phenomena, the relationships among them, a storyline describing these relationships, and an argument for these three elements. Communication theory provides a way of talking about and analyzing key events, processes, and commitments that together form communication. Theory can be seen as a way to map the world and make it navigable; communication theory gives us tools to answer empirical, conceptual, or practical communication questions.
AnthroposémiotiqueAnthroposémiotique est un synonyme rare de communication humaine, formé dans les années 1970 sur les racines grecques anthropo, désignant l'espèce humaine, et sémio, désignant les signes. Un premier courant trouve ses racines contemporaines chez l'anthropologue Grégory Bateson qui a fondé au le courant de pensée connu en France sous le nom de Ecole de Palo Alto. Il est revisité au en France par Béatrice Galinon-Mélénec via le paradigme de l'"Ichnos-Anthropos" ("Homme-trace") qui analyse la perception et l'interprétation des signes par un humain dont la relation au monde est filtrée par un "corps-trace" non dualiste (corps et esprit).
Models of communicationModels of communication are simplified representations of the process of communication. Most models try to describe both verbal and non-verbal communication and often understand it as an exchange of messages. Their function is to give a compact overview of the complex process of communication. This helps researchers formulate hypotheses, apply communication-related concepts to real-world cases, and test predictions. Despite their usefulness, many models are criticized based on the claim that they are too simple because they leave out essential aspects.
Communication animaleLa communication animale regroupe l'ensemble des échanges d'information entre des individus d'une même espèce (communication intraspécifique) ou d'espèces différentes (communication extraspécifique) chez les animaux. Les animaux communiquent entre eux pour différentes raisons : séduction du partenaire, compétition pour les ressources, recherche de nourriture. Ils utilisent pour cela un signal ou un message (support physique de l'information), comme une odeur, un son, un mouvement, ou un signal électrique.
Droits de la communicationLes droits de la communication englobent la liberté d'opinion et d'expression, la gouvernance démocratique des médias, la concentration des médias et le contrôle des médias, la participation à sa propre culture, le droit de choisir sa langue, les droits à l'éducation, la confidentialité, la liberté de réunion et le droit des peuples à disposer d'eux-mêmes. Ils concernent aussi l'inclusion et l'exclusion sociales, la qualité des moyens de communication et leur accessibilité.
Sciences de l'information et de la communicationthumb|Schéma simpliste de la transmission linéaire de l'information dans la communication (paradigme mécaniste) Les sciences de l'information et de la communication (SIC) forment un champ de recherches universitaires, connu sous ce nom en France, Belgique, Suisse, Algérie et au Maroc. Au Québec, on se réfère aux études en « Communication » ou « Science de l'information ». Créée en France au cours du , en écho aux américaines ou à la allemande, cette nouvelle discipline se fonde sans que les chercheurs qui y participent ne partagent un paradigme commun.
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Évolution (biologie)En biologie, l’évolution est la transformation du monde vivant au cours du temps, qui se manifeste par des changements phénotypiques des organismes à travers les générations. Ces changements généralement graduels (mais pouvant être rapides ou lents) peuvent aboutir, à partir d’une seule espèce (dite « espèce-mère »), à la formation de nouvelles variétés périphériques devenant progressivement des « espèces-filles ». Inversement, la fusion de deux lignées par hybridation ou par symbiogenèse entre deux populations d'espèces différentes peuvent produire une troisième espèce nouvelle.
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Information quantiqueLa théorie de l'information quantique, parfois abrégée simplement en information quantique, est un développement de la théorie de l'information de Claude Shannon exploitant les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication. L'unité qui est utilisée pour quantifier l'information quantique est le qubit, par analogie avec le bit d'information classique.
Communications systemA communications system or communication system is a collection of individual telecommunications networks systems, relay stations, tributary stations, and terminal equipment usually capable of interconnection and interoperation to form an integrated whole. The components of a communications system serve a common purpose, are technically compatible, use common procedures, respond to controls, and operate in union. Telecommunications is a method of communication (e.g., for sports broadcasting, mass media, journalism, etc.
Quantities of informationThe mathematical theory of information is based on probability theory and statistics, and measures information with several quantities of information. The choice of logarithmic base in the following formulae determines the unit of information entropy that is used. The most common unit of information is the bit, or more correctly the shannon, based on the binary logarithm.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Technical communicationTechnical communication (or Tech Comm) is communication of technical subject matter such as engineering, science, or technology content. The largest part of it tends to be technical writing, though importantly it often requires aspects of visual communication (which in turn sometimes entails technical drawing, requiring more specialized training). Technical communication also encompasses oral delivery modes such as presentations involving technical material.
Signal électriquevignette|Signaux électriques sur l'écran d'un oscilloscope : signal rectanglaire (haut), signal harmonique ou sinusoïdal (bas). Un signal électrique est une grandeur électrique dont la variation dans le temps transporte une information, d'une source à une destination. La grandeur électrique que l'on considère pour la transmission et le traitement du signal peut être directement la différence de potentiel ou l'intensité d'un courant électrique ; ou bien une modulation de l'amplitude, de la fréquence ou de la phase d'une variation périodique de ces grandeurs, qu'on appelle porteuse ; dans les communications numériques par modem des règles complexes régissent la modulation afin d'occuper au mieux la largeur de bande allouée.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
LangageLe langage est la capacité d'exprimer une pensée et de communiquer au moyen d'un système de signes (vocaux, gestuel, graphiques, tactiles, olfactifs, etc.) doté d'une sémantique, et le plus souvent d'une syntaxe — mais ce n'est pas systématique (la cartographie est un exemple de langage non syntaxique). Fruit d'une acquisition, la langue est une des nombreuses manifestations du langage. Les langages sont constitués de signaux correspondant au support physique de l'information.