SenseMaking
 



La théorie générale de l’information chahutée par les NTIC


Mercredi 3 Juillet 2013



L’avènement des NTIC suscite parfois le rejet des premières théories générales de l’information. Mais il serait hâtif de remiser si vite les enseignements des précurseurs des sciences de l’information et de la communication.



Depuis le milieu de XXe siècle, le monde universitaire aborde l’information comme un sujet scientifique. Soucieux d’avoir une vision plus systémique du rapport à l’information, de ses fonctions et de ses usages, des théoriciens ont ainsi jeté les bases d’une science humaine jeune et pleine de promesses. Mais la rapidité de l’évolution technologique complique grandement la tâche de cet effort d’observation et de compréhension.

La théorie générale de l’information chahutée par les NTIC

L’information sur le papier

En 1948 paraissait Mathematical Theory of Communications, un article rédigé par l’ingénieur électricien américain Claude Shannon(1). Ces pages inspirées par les premières heures des systèmes de télécommunications modernes abordent le concept d’information sous l’angle mathématique et en donnent une représentation schématique de la communication aujourd’hui consacrée. Pour Claude Shannon, communiquer revient donc à émettre une information sous forme de message, la transmettre sous forme de signal, puis recevoir ce signal et lui redonner la forme d’un message intelligible pour permette enfin à l’information d’origine atteindre sa destination.
 
Le processus de communication tel qu’il est décrit par Shannon comporte déjà des subtilités dont les conséquences sont de taille. Celui-ci envisage notamment l’impact de la redondance et du bruit dans l’efficacité de la communication. La redondance désigne les parties du message qui apparaissent comme superflues. Le bruit quant à lui représente tout ce qui peut interférer avec le signal qui sert à transporter l’information de l’émetteur au récepteur et altérer le sens du message original. La qualité de l’information qui entre dans un vecteur de communication n’est donc pas équivalant à la qualité de celle qui sort. Dès lors, Claude Shannon, ingénieur et chercheur de profession, a-t-il formalisé scientifiquement un principe fondamental des sciences de la communication.
                   
Ainsi les débuts des sciences de l’information ont-ils été marqués par ce grand défi qui a consisté à prévenir toute altération du signal par son moyen d’acheminement. Des scientifiques contemporains de Shannon se sont penchés sur la question. On retiendra par exemple Norbert Wiener qui, grâce à une approche statistique de concept de bruit, a proposé un outil permettant de corriger l’altération des données en lui appliquant une formule mathématique. Très tôt, la question du bruit a été prise en charge techniquement, si bien qu’aujourd’hui elle n’affecte plus tellement la pratique quotidienne de la communication moderne : il n’y a guère que la radio qui grésille suffisamment pour empêcher, dans certaines conditions, le message du diffuseur d’être compris. La question de la redondance est en revanche plus que jamais d’actualité. Car avec la multiplication des émetteurs et des récepteurs d’informations, la qualité des messages diffusés est devenue un enjeu majeur.

De l’infocom aux sciences humaines

Les chercheurs en sciences humaines - sociologie, psychologie voire même économie - se sont rapidement approprié les enseignement de la théorie générale de l’information qu’ils ont, par transposition, appliqué au champ du traitement cognitif de l’information. En effet, à une époque à laquelle l’information est devenue (sur-)abondante, la question des « filtres informationnels » est devenue un des enjeux fondateurs d’une économie de la connaissance.
 
Un simple parallèle permet d’en prendre la mesure. Quelle différence y’a-t-il, lorsqu’on interroge un sujet, entre un livre papier et un navigateur internet en terme de valeur informationnelle ? Le premier contient un corpus d’informations hiérarchisées par le sens, non redondant, débarrassé du bruit (superflu, inexactitudes, etc.), tandis que le second incarne une nébuleuse de données majoritairement redondantes, parfois non supervisées et hiérarchisées par des critères d’ordre purement technique (voir par exemple les principaux paramètres de référencement sur Google).
 
Ainsi, le livre papier est l’aboutissement matériel d’un processus de traitement de fond de l’information par l’homme, tandis qu’Internet est une représentation du traitement de forme de l’information par la machine. C’est ce qu’illustre, en substance, cette récente déclaration d’Arnaud Nourry, qui dirige les éditions Hachette : « Notre métier est de tracer une ligne entre ce qui fait partie de la culture et ce qui relève de l’expression personnelle », explique-t-il ; « Notre vocation n’est pas d’ajouter du bruit au bruit existant, mais de donner du sens (...) Or la recherche de la rapidité se fait trop souvent au prix du sens. »
 
Dans un monde pourtant où tous les individus sont devenus, avec un succès relatif, des émetteurs d’information, voire même des « prescripteurs », il convient de s’interroger sur la confiance que chacun d’entre nous accorde aux algorithmes qui « structurent » ce formidable outil de connaissance qu’est Internet. La plus-value informationnelle de l’éditeur se trouve dans sa capacité de sélection, de traitement et de « mise en discours » de l’information. Il en va d’ailleurs de même dans d’autres professions comme le journalisme. Sur le web, « de multiples pures players et d’innombrables plateformes participatives sont apparus », observe Mingjung Jin, « ce phénomène a favorisé le développement du journalisme “amateur” »(2). Un constat dont les conséquences s’étendent bien au-delà des seuls progrès de la liberté d’expression, car il entraine également « une surabondance de l’expression ». Mais la résultante de cette surproduction d’information porte déjà un nom : l’infobésité, soit la surexposition à l’information. Et comme les éditeurs, les journalistes traditionnels se distinguent de la masse de producteurs d’information en développant des stratégies de traitement – fact checking, investigation, etc. – qui leur permettent de conserver leur statut de « filtres informationnels», de prescripteurs de qualité.
 
Les NTIC ont transformé chacun de nous en producteurs de contenu et en réceptacles d’information quasi-permanents. Se penchant sur la question du web, Serge Proulx(3) ne relève pas moins de « sept sphères de changements associés à internet » parmi lesquels la « communication », la « politique », la « sociabilité », ou encore la « création culturelle ». Soit autant de modes de communication qui, depuis que la toile existe, ont profondément changé. Une part importante de ce changement est aujourd’hui attribuable à l’accroissement considérable du flux d’information. Et la question du bruit et de la redondance préoccupent encore les chercheurs, en sciences humaines cette fois-ci, quant à l’impact des nouveaux modes de circulation de l’information sur notre libre arbitre et nos facultés décisionnelles.
 
N’en déplaise à Claude Shannon, qui n’a jamais tenu les sciences de l’Homme en grande estime ! Ainsi les NTIC bousculent certes les représentations classiques de l’information et de la communication, mais sont loin de les avoir complètement enterrées.
 
(1) SHANON, C., « A Mathematical theory of communication », in Bell Technical Journal, Vol 27, pp.. 379 à 423 et 623 à 656 , 1948.
(2) JIN, M., Le journalisme amateur à l’ère d’internet : illusion populaire ou nouvel espace de liberté d’expression ?, JOUET, J. (Dir), thèse de doctorat en Sciences de l’information et de la communication, Université Paris 2, 2012.
(3) PROULX, S., « Penser les usages des technologies de l’information et de la communication aujourd’hui : enjeux – modèles – tendances », in VIEIRA, L., PINEDE, N. (Eds), Enjeux et usages des TIC : aspects sociaux et culturels, Tome 1, Presses universitaires de Bordeaux, Bordeaux, 2005, pp.. 7 à 20.










Les articles les plus lus


Inscription à la newsletter
Facebook
Twitter
YouTube