Pour Claude Shannon, l'information est une mesure de l'incertitude associée à un ensemble de messages possibles. Elle quantifie le contenu informationnel d'un message en fonction de la probabilité de son occurrence, c'est-à-dire qu'un message rare (imprévisible) contient plus d'informations qu'un message attendu (prévisible).
Une information est de « haute intensité » si elle a un effet de surprise.
Plus d'informations à ce sujet dans l'article Wikipédia Théorie de l'information.