"La quantité d'information dans un message est inversement proportionnelle à la probabilité d'apparition de ce message."
Ce n'est pas moi qui le dit mais Claude Shannon, l'inventeur en 1949 de la seule grande théorie de l'information, celle qui a créé le bit et donné naissance à l'informatique.
Si je sais à l'avance ce que tu vas me dire, il n'y a pas d'info! C'est pas beau?
Shannon a même trouvé la formule (ci-dessus) en calculant l'entropie ou logon.L’entropie exprimée en bits est égale à moins la somme des
probabilités des diverses éventualités possibles multipliées par le logarithme
de base 2 de ces probabilités.Exemple : si je tire à pile ou face, la probabilité p
de pile (comme celle de face) est de ½, l’entropie H sera :H = - (1/2 log ½
) + (1/2 log ½ ) = - 2 (1/2 log ½ ) = - log ½ = 1 bit.
Communication = contenant, vecteur
Information = objet transmis d'un (ou+) emmeuteur vers un (ou +) recepteur via le vecteur (la communication)
Pour l'homme je parlerais + d'idées que d'information
L'Homme est subjectif, il perçois l'information via ses 5 sens, ses préjugés, ses expériences passées...
Rédigé par : Laurent Deséchalliers | 30/11/2004 à 14:32