Information

Pour Claude Shannon, l'information est une mesure de l'incertitude associée à un ensemble de messages possibles. Elle quantifie le contenu informationnel d'un message en fonction de la probabilité de son occurrence, c'est-à-dire qu'un message rare (imprévisible) contient plus d'informations qu'un message attendu (prévisible).

Une information est de « haute intensité » si elle a un effet de surprise.

Plus d'informations à ce sujet dans l'article Wikipédia Théorie de l'information.

Quitter le mode Zen