Le problème du filtrage de l’information sur Internet

Tiré de text-e, un colloque entièrement virtuel consacré à explorer l’impact de l’Internet sur la lecture, l’écriture et la diffusion du savoir. Le colloque s’est déroulé du 15 octobre 2001 jusqu’à fin mars 2002. Un peu vieux mais toujours pertinent : les conséquences de la perte de l’intermédiaire dans l’accès aux informations)

Par Umberto Eco
(Mise en page et ajout du gras par moi)

[Le problème du filtrage de l’information sur Internet ?]

C’est le problème fondamental du Web. Toute l’histoire de la culture a été celle d’une mise en place de filtres. La culture transmet la mémoire, mais pas toute la mémoire, elle filtre. Elle peut filtrer bien, elle peut filtrer mal, mais s’il y a bien quelque chose qui nous permet d’interagir socialement, c’est que nous avons tous eu, plus ou moins, les mêmes filtres. Après, le scientifique, le chercheur peuvent mettre en cause les filtres, mais ceci est une autre histoire.

Avec le Web, tout un chacun est dans la situation de devoir filtrer seul une information tellement ingérable vu son ampleur que, si elle n’arrive pas filtrée, elle ne peut pas être assimilée. Elle est filtrée par hasard, par conséquent quel est le premier risque métaphysique de l’affaire ? Que l’on aille au-devant d’une civilisation dans laquelle chacun a son propre système de filtre, c’est-à-dire que chacun se fabrique sa propre encyclopédie. Aujourd’hui, une société avec cinq milliards d’encyclopédies concurrentes est une société qui ne communique plus.

De plus, les filtres auxquels nous nous référons résultent de la confiance que nous avons mise dans la dite « communauté des savants » qui, à travers les siècles, débattant entre eux, a apporté la garantie que le filtrage a été, à tout le moins, plutôt raisonnable, tandis qu’on peut imaginer ce que pourrait donner le filtrage individuel fait par n’importe qui, par exemple par un garçon de quatorze ans. Nous pourrions nous trouver, de ce fait, face à une concurrence d’encyclopédies dont certaines seraient délirantes. […]

(source originale) (source miroir)

Umberto Eco refuse ensuite la possibilité d’automatiser la fonction du filtre : un moteur de recherche ne fera pas le travail que font les experts.

Deux groupes de filtrage pourraient exister selon lui :

  • le premier s’exprime de l’intérieur du Web, mais comment fait le novice pour repérer le site d’experts ?
  • le second s’exprime de l’extérieur, par exemple dans une revue ou un quotidien, mais alors comment s’assurer que le matériel imprimé soit à la disposition du plus grand nombre d’usagers?

Compte tenu de la date du colloque, Eco ne connaissait pas le filtrage collaboratif qui se met actuellement en place (Amazon, eBay, slashdot, del.icio.us, Wikipedia, etc) mais qui serait possiblement une troisième voie. Mais alors comment s’assurer de la « compétence collective »?

Ce troisième « groupe de filtrage » implique un type de pensée qui « refuse les catégories fortes et le légitimations totalisants », qui a renoncé à une fondation « unique, dernier, normatif  » (dans le sens qu’emploierait par Gianni Vattimo pour sa « pensée faible » (Il pensiero debole).

Umberto Eco pensait en terme d’autorité traditionnelle. Son point de vue est loin d’être discrédité, mais finalement un nouveau modèle de légitimation se met en place pour « valider » l’information. Apparemment, les institutions perdent leur force légitimante sur le web car elles ne peuvent y garantir leurs continuités et leurs identités.

La « démocratisation » de l’accès à la connaissance (via la folksonomy notamment) ordonnera une nouvelle façon de gérer l’avalanche d’information; mais créera-t-elle une société qui ne pourra plus communiquer? La communication de masse a du pain sur la planche…


Compléments (dernière mise à jour 26 août 2005)
– Info sur le Collaborative filtering
– « Théorème de la compétence collective » (PDF) -Université Libre de Bruxelles
– Le management de l’intelligence collective d’Olivier Zara
Autorité cognitive : Sept thèses sur le sens commun
Problèmes de légitimation (EN) (tiré du livre d’Habermas)
Il faut sauver la communication de Dominique Wolton
Introduction :Problèmes et enjeux de l’évaluation de l’information sur Internet d’Alexandre Serres (URFIST Bretagne-Pays de Loire, Avril 2002)

Billet original sur http://zeroseconde.com

ZEROSECONDE.COM (cc) 2004-2012 Martin Lessard

Contenu protégé selon la licence Paternité – Pas d’utilisation commerciale – Partage des conditions initiales à l’identique 2.0 de Creative Commons

Conférencier, consultant en stratégie web et réseaux sociaux, chargé de cours. Nommé un des 8 incontournables du Montréal 2.0 (La Presse, 2010). Je tiens ce carnet depuis 2004.

Pas de commentaires pour le moment.

Laisser un commentaire

5 points pour bien bâtir votre auditoire

À la question «Quels sont les éléments les plus importants pour bâtir son audience» posée par Olivier Lambert, j’avais répondu […]

Changement de cycle [4] / Internet est mort, vive les internets

Toute transition laisse apparaître par décantation les éléments moteurs qui alimenteront le cycle suivant. Ce billet clôt une série de quatre sur le changement de […]

Zéro Seconde a 10 ans!

En février 2014, mon blogue a soufflé ses 10 bougies. C’est une décennie complète à observer les impacts du numérique sur […]

Changement de cycle [3] / Deep Learning, robots et AI: à qui appartiendra l’économie de demain?

Changement de cycle [1]: Élites hors circuit numérique Changement de cycle [2] / Élites? Quelles élites? Changement de cycle [3] […]

Les médias sociaux en entreprise

Je vous invite au lancement de mon livre “Les médias sociaux en entreprise” que j’ai co-écrit avec Marie-Claude Ducas et Guillaume Brunet. Dépêchez-vous de […]

Pourquoi bloguer (dans un contexte d’affaires)

Voilà la couverture du livre dans lequel j’ai écrit le premier chapitre « Bloguer pour influencer ». Il est maintenant en pré-vente […]