|
26 juillet 2000. La France est au lendemain de l’accident du Concorde. On
n’accordera donc aucune attention à la mort de John Wilder Tukey,
mathématicien et statisticien américain. Il est pourtant l’inventeur, à côté
d’une oeuvre scientifique de premier ordre, de deux mots essentiels du
vocabulaire moderne : software et bit. En marge d’une conférence tenue
durant l’hiver 1943, il semble qu’il ait conduit une discussion animée au
cours de laquelle il suggéra de raccourcir l’expression « binary digit »
(chiffre binaire) en bit, après avoir rejeté les propositions « bigit » et «
binit ». C’est Claude Shannon, le père de la théorie de l’information, qui
reprit le terme dans un article de 1948, en l’attribuant à Tukey. Mais
d’autres sources datent l’apparition du mot de 1946 ou 1949. Peu importe, il
est contemporain des tout premiers ordinateurs, et il continue vaillamment
d’accompagner leur carrière, certes boursouflé, inflation oblige, de
préfixes vertigineux : mégabit, gigabit et bientôt térabit. Le bit, cet
atome de l’informatique, n’est cependant pas si simple à comprendre.
L’édition 1979 du Petit Larousse Illustré en donnait l’extraordinaire
définition suivante : « unité d’information correspondant au logarithme de
base 2 ». Diantre. Il ne faut peut-être pas chercher ailleurs l’origine du
retard français en matière de technologies de l’information. Mais on peut
trembler à l’idée qu’arrive à l’âge des responsabilités une génération qui,
enfant, a compris que le bit était le « logarithme de base 2 ». Les années
Mitterrand virent une définition plus rassurante s’imposer chez Larousse: le
bit était « une unité élémentaire d’information ne pouvant prendre que deux
valeurs (1 ou 0) ». C’est, en gros, ce que l’on trouve encore partout. Un
bit, ça vaut un ou zéro. C’est le petit soldat du « langage binaire ». Les
ordinateurs sont bêtes (ou puissants) car il sont binaires. Et on passe à
autre chose. Pourtant un bit, c’est vertigineux. C’est, au départ, un
dispositif : un transistor qui peut être dans un état ou dans un autre, on
ou off, la tête en bas ou la tête en haut. Mais jamais entre les deux, ni
dans un troisième état, on y perdrait son latin. Là où ça devrait devenir
mystérieux, c’est quand on passe du dispositif à ce qu’il représente, du
contenant au contenu, c’est-à-dire l’information. Qu’est ce que ça veut dire
une « unité élémentaire d’information », quand on n’a pas défini ce qu’est
l’information ? Normalement, rien. En fait, chez Shannon et Tukey, cela
avait un sens précis (l’information c’est l’inverse d’une probabilité) mais
assez difficile à exposer aux enfants. Du coup les auteurs de dictionnaires
eurent le choix entre deux versions de la messe en latin. La première,
ridicule dans sa formulation mais pas dans son projet, était celle du
Larousse de 1979 : car il y a bien un rapport entre le logarithme et la
quantité d’information, mais l’éditeur s’est arrêté bien avant le milieu du
gué. Et il y a la version moderne, celle de l’unité élémentaire
d’information, qui passe bien, mais qui est, au minimum, une mésinformation.
De toutes façons, chez nous, le mot bit bénéficie évidemment de sa
phonétique. Naguère on ne découvrait l’informatique qu’au lycée, et cette
euphonie était après tout un moyen de la découvrir en ricanant. Aujourd’hui
beaucoup d’enfants apprennent le petit mot avant le gros. Le succès du
raccourci de John Tukey raccourcira peut-être le succès du gros mot.
|
|