L’autopublication induit de nouvelles stratégies de filtrage. Comme le dit Shirky, filtrer avant de publier (‘filter-then-publish’), malgré ses clairs bénéfices, ne convient que pour un monde où sévit la rareté des information. Rareté par rapport au tsunami qui nous submerge aujourd’hui.
‘Mass amateurization of publishing makes mass amateurization of filtering a forced move. Filter-then-publish, whatever its advantages, rested on a scarcity of media that is a thing of the past. The expansion of social media means that the only working system is publish-then-filter’
Clay Shirky, Here comes everybody, 2008
Les nouvelles stratégies qui se mettent en place le sont par les médias sociaux, via des systèmes de tri post publication (‘publish-than-filter’).
Je retombe sur cet extrait de Shirky en ce moment car j’écris un texte pour un des chapitres de Sébastien Paquet pour son cours sur les réseaux sociaux. L’extrait me fait penser à ce que j’avais écrit en 2005 (post before processing)
Parce que nous sommes entrée dans une ère où, grâce aux nouvelles technologies, la logique traditionnelle de publication selon l’offre et la demande fait place à un « post before processing« .
« Post before processing«
Le « propriétaire » publie (post) une information sans se soucier de son problème d’identification du « public-cible » (à qui écrit-on?, comment adapter son niveau de langage?, qu’est-ce qui les intéresse?).C’est au « destinataire » que revient le problème de discerner (process) parmi les divers « sources » d’information possible celle la plus appropriée selon ses besoins.
Inverser la problématique, c’est s’offrir le pouvoir de l’automatiser. Il sera toujours plus facile pour un internaute qui recherche une information d’en déterminer sa pertinence qu’un producteur de contenu de faire le tri lui-même.
On publie en premier, on voit ensuite comment traiter l’information: « post before processing« .
(Sur Zéro Seconde Post before processing, 2005)
On voit maintenant partout dans la blogosphère et la twittosphère des « émetteurs » qui publient (post) une information sans se soucier aussi d’un « public-cible ».
J’avais écrit un billet où je comparais Twitter à une possible application grandeur nature d’un concept militaire proposé au département de la défense américain qui est à la base du concept du ‘publish-than-filter’ (Twitter : power to the edge)
Le document militaire proche du Department of Defense américain explorait la capacité militaire de synchroniser dynamiquement ses actions de façon à augmenter la vitesse de commandement via un réseau robuste décentralisé. Plus précisément en disséminant l’information le plus rapidement possible en laissant le soin à la périphérie de juger de sa pertinence.
Notre réseau social est notre périphérie.
Texte à lire sur le sujet
Post before processing: La nouvelle logique de publication
Intox en stock : marrante démonstration à l’inverse que la presse centralisée n’est pas sans faute
Twitter : power to the edg: C’est au « destinataire » que revient le problème de discerner (to process) parmi les divers « chunk » d’information possibles ce qui répond à ses besoins.
Nous sommes présentement à l’aube de »l’information de marché » , un peu comme »l’économie de marché ». Il y a des grandes centrales financières qui dictent les grandes lignes, mais laisse le marché prendre les décisions les plus appropriées. Dans la complexité, le contrôle absolu n’est pas possible, décentraliser reste une solution. Il y aura des effets pervers à ça, il faut juste les prévoir et chercher à les endiguer. L’économie de marché commence a montrer ses limites 200 ans plus tard. L’information décentralisé aura son lot de problème. Je continue de lire Zeroseconde pour les découvrir.
François, la gestion de la complexité demande de nouvelles règles, j’imagine. Depuis plusieurs années on voit apparaître des ‘gestionnaires de flux’ qui font des tris éditoriaux, mais à partir de contenu déjà existant.
Quand on parle des médias sociaux (notre réseau social qui utilise les outils réseau) il y a effectivement le terme ‘social’ qui est évidement fondamentalement horizontal, par opposition à top-down des médias traditionels (et, on doit l’avouer, certaines portions du web, et même de la blogosphère en font partie). demande des stratégies tout à fait différente.
Le livre numérique, quand il sera réellement social, permettra de voir le développement d’un tout nouveau usage basé sur la référence, la recommandation, l’annotation, etc. C’est un endroit où la dichotomie auteur/audience sera définitivement plus flou, sinon quasi inexistante.
L’économie de marché n’a pas bcp de place dans ce type de développement, o’u la différenciation n’est pas claire (et o’u donc qui paye qui reste insoluble…)
Audacieuse hypothèse, Martin. Je pense pour ma part comme Éco (on y revient toujours) que l’on écrit toujours pour un «lecteur modèle» un destinataire. si je lis Martin Lessard, c’est qu’il constitue une «autorité cognitive» et que son discours est adapté à des lecteurs de peu ou prou mon profil. Pour le reste, la bouteille à la mer, on en attrape toujours au passage des lecteurs «égarés», de passage, parfois des lecteurs qui effectuent des lectures aberrantes, mais le principe de co-construction du texte est pour ma part toujours déjà présent dans le geste de l’émetteur.
Luc, oui je ne peux qu’être d’accord avec toi (d’ailleurs le DoD américain, je pense, n’a pas été de l’avant avec cette idée), mais je crois que cette hypothèse est séduisante pcq empiriquement elle marche.
Oui, il y a un ‘lecteur modèle’. Dans ma tête il y avait un ‘Luc Jodoin’, un destinataire ideéal de mes billets. Mais Eco dit aussi qu’il y a un ‘lecteur réel’ (bien différent). Le vrai Luc Jodoin. Que je ne connaissais pas avant de publier.
Je suis attiré par ce modèle pcq la ’bouteille à la mer’ a marché. En périphérie, tu as l’as attrapé.
Du moins, cette idée donne image de la façon que j’ai procédé. Quant a sa valeur, c’est un autre débat…