Réseaux sociaux : "Casser les chaînes de contamination virales"
La rédaction - - 100 commentairesTélécharger la video
Télécharger la version audio
Après l'assassinat de Samuel Paty, ils ont fourni une cible à tous les tenants d'une liberté d'expression encadrée. Eux, ce sont Facebook, Twitter, YouTube et les autres, accusés d'être trop laxistes vis-à-vis des contenus illicites ou polémiques, du terrorisme à l'épidémie de Covid-19. Comment casser les chaînes de contamination de la viralité? Nous recevons Olivier Ertzscheid, enseignant-chercheur en sciences de l'information et de la communication, et Pacôme Thiellement, essayiste et vidéaste, pour tenter de comprendre comment les réseaux sociaux encouragent la diffusion de la parole haineuse ou complotiste à des fins commerciales. **Précision : nous avons éprouvé des difficultés de son pendant l'enregistrement (nos invités sont en visioconférence). Nous avons sous-titré les prises de parole d'Olivier Ertzscheid.**
Les réseaux sociaux sont-ils de simples véhicules de la colère et de la haine ? Des amplificateurs ? Des usines de production de cette colère ? Aux questions introductives posées par Emmanuelle Walter, Olivier Ertzscheid rappelle que "Samuel Paty n'a pas été tué par les réseaux sociaux (...) Les appels à la haine passés sur ces réseaux participent d'une chambre d'écho beaucoup plus large", où l'on trouve également les médias traditionnels. "Chaque fois que les médias parlent des réseaux sociaux", poursuit Ertzscheid, "ils oublient de parler d'eux-mêmes. Ces pics d'appels à la haine sur ces plateformes sont toujours corrélés au fait que des médias en ont parlé immédiatement avant sur les plateaux. L'écosystème des médias et des réseaux sociaux sont extrêmement poreux et se nourrissent l'un l'autre."
A la question de la "sauvagerie" supposée qui règnerait sur ces plateformes, le maître de conférences répond par une analyse architecturale : "Facebook est bâti comme une immense tour peuplée par 2,7 milliards d'individus. Ce que l'on nous a vendu comme de la proximité devient mécaniquement de la promiscuité. Il est malheureusement presque logique que dans ces architectures techniques-là, il y ait des effets de violence structurelle, d'appels à la haine", qui ne s'expliquent pas par l'agressivité des comportements individuels en ligne. Pour l'essayiste Pacôme Thiellement, cette critique acerbe des médias vis-à-vis des plateformes s'expliquent autrement : "Ils veulent avoir le monopole de la sauvagerie." Il rappelle en outre que "la plupart de ceux qui critiquent les réseaux sociaux dans les médias... y sont aussi".
Censure et contre-propagande
Nous vous le racontions la semaine passée, l'assassinat de Samuel Paty après une campagne d'intimidation menée sur Facebook a réanimé le corps d'une loi pourtant bien enterrée : la loi sur les contenus haineux en ligne ou loi Avia, dont la mesure phare proposait d'imposer aux plateformes la suppression de tous les contenus illicites en 24 heures sous peine d'amende. Une loi adoptée en mai puis censurée par le Conseil constitutionnel, inquiet de son potentiel liberticide. Pour certains, la Constitution est donc le problème, et il faudrait la modifier pour intégrer ce genre de système. Reste cette question : la loi Avia aurait-elle empêché que la vidéo contre Samuel Paty soit mise en ligne? "Non", rétorque Olivier Ertzscheid, car "ce n'est matériellement pas possible à l'échelle de la volumétrie des contenus, et ca ne fonctionne pas car (...), y compris quand ces vidéos sont massivement signalées, ca ne suffit pas à les faire disparaître". Et les plateformes en sont directement responsables car elles "facilitent la fluidité de dissémination" de ces contenus, en nous permettant de les partager sans avoir à réfléchir. Car ces sites, détaille-t-il, sont construit sur une économie dite pulsionnelle, qui "mettent notre cerveau en pilotage automatique."
Que faire, alors, pour désamorcer ces logiques toxiques? Responsabiliser les utilisateurs lorsqu'ils réagissent, en rendant le partage plus difficile -comme Twitter, qui ne permet désormais plus de retweeter aussi facilement qu'à l'époque-, ou encore identifier lorsqu'un contenu atteint une forme de seuil critique de viralité et l'empêcher de grossir encore. Pour Olivier Ertzscheid, cette approche, testée par WhatsApp dans le cadre de la désinformation sanitaire, est "la bonne, mais pas la seule" : il faut également renforcer les moyens d'action de la plateforme de signalement gouvernementale Pharos, qui emploi aujourd'hui 27 personnes, et introduire "de la friction", du ralentissement, dans nos comportements en ligne. Et les géants du web en ont parfaitement la capacité technique, comme Facebook l'a démontré à l'aube des élections américaines.
Autre approche, déployée la semaine passée par Marlène Schiappa : proposer une "contre-propagande" gouvernementale, investir les réseaux pour porter un "discours républicain" et tenter de convaincre du bien-fondé de cette parole. Un projet qui rappelle furieusement le dispositif Stop Djhadisme, créé en 2015 après les attentats et piloté par Manuel Valls, alors Premier ministre. Films anti-État islamique, compte Facebook et Twitter, numéro vert... malgré cette artillerie lourde, le système, actif pendant trois ans, n'aura qu'un effet marginal sur la dissémination des idées djihadistes en ligne. Pour Pacôme Thiellement, cela tient au rapport que nous entretenons à nos gouvernants : "La plupart des membres du gouvernement sont détestés, pas seulement des radicalisés, mais d'une grande partie de la population." Olivier Ertzscheid, lui, coupe court : rien ne sert d'essayer de combattre la viralité sur son terrainpuisque ces vidéossont conçues sur-mesure pour être favorisées par les algorithmes de recommandations des réseaux sociaux, devenus pour certains des machines à radicaliser. Les interdire produirait enfin l'effet inverse, assure-t-il.
Facebook, "une fusion complète entre le masque et le visage"
"Facebook a modifié ma psyché,
explique Thiellement. (...) Le monde d'avant s'est réinstallé lentement mais surement dans nos psychés actuelles, on est parties dans Facebook avec nous-mêmes. On est partis pour échapper au mainstream, pour recréer quelque chose qui serait de l'ordre du partage anarchique et finalement, tout ce qui est de l'ordre de l'algorithmie propre à Facebook était rentré progressivement en moi. Il y a toujours eu besoin de créer un petit masque. Et alors soudain, avec les réseaux sociaux, il y a une fusion complète entre le masque et le visage".
Olivier Ertzscheid confirme : l'un des paradoxes structurels de Facebook réside dans sa confusion entre espace privé et espace public, qui influe énormément sur nos prises de parole. "Il y a une forme de métabolisation dans l'usage qu'on a de ces réseaux sociaux qui n'est pas spécifique aux réseaux sociaux. On pourrait faire pareil sur un plateau télé. Le dispositif nous enferme, quelque part. Une fois qu'on a compris que tel post allait générer plus d'interaction (...), le choix n'est plus sur ce que j'ai à dire, mais est-ce que je dis des choses qui vont m'installer comme une personnalité respectable (...) ou est-ce que je vais à dessein décrocher, rester sur la ligne, et ne parler que de choses qui m'intéressent?"
Ce second choix, celui du discours hétérodoxe, c'est celui qu'a notamment fait Didier Raoult, qui affirme préférer YouTube aux médias traditionnels. Pour Ertzscheid, Raoult "est l'archétype du discours complotiste, mais dans une posture opposée à celle du complotiste, la posture scientifique. Tout son ambivalence, et quelque part son talent médiatique, c'est d'arriver à jouer sur les deux tableaux." Un talent qui lui permet de réunir 500 000 personnes dans un groupe de soutien, soit plus qu'une métropole comme Toulouse. "A lui seul, il cristallise le pire et le meilleur des médias, qu'ils soient traditionnels ou numériques", résume le chercheur. Les grands médias, analyse Thiellement, ont néanmoins besoin de ces figures alternatives "à la fois comme nourriture, comme repoussoir et comme marchepied". Mais attention à ne pas s'émerveiller trop vite de la capacité de rassemblement d'une figure médiatique comme Raoult : les groupes Facebook, malgré les apparences, ne sont pas des lieux de consensus, mais des structures où générer du dissensus à partir de valeurs communes - encore une fois, plus la parole est clivante, plus elle vaut cher aux yeux des plateformes. "Le fonctionnement démocratique, c'est de gérer du dissensus et d'essayer de produire du consensus ; à l'intérieur des architectures techniques toxiques de Facebook, c'est exactement l'inverse : on met ensemble des gens qui ont grosso modo les mêmes croyances et opinions, mais comme une fois placés ensemble il ne se produit rien, on va travailler pour les obliger à produire du dissensus", en mettant en valeur sur les murs Facebook les opinions les plus polémiques, résume le maître de conférences en sciences de l'information. Alors, on fait quoi ? On boycotte, on renverse, on régule ? "Ce qui est important, c'est de trouver son Ailleurs, ou en tout cas un Meilleur", conseille Pacôme Thiellement. Pour Ertzscheid, plus prosaïquement, "il y a trois leviers sur lesquels jouer : l'éducation, la régulation et l'opinion". Il y a un peu de tout ça dans cette émission.
Olivier Ertzscheid est l'auteur de
Le Monde selon Zuckerberg, C&F éditions, 2020.