Car malheureusement, nos prises de parole sont pas toujours aimables !
On le remarque tous les jours, certains échanges s’accompagnent d’abus de comportement, avec des commentaires dénigrants, des invectives, du harcèlement, qui font partie désormais du paysage numérique.
Au regard du volume, de la viralité, les plates-formes sont en première ligne et les opérateurs ont du mal à modérer la polarisation de certains messages. Citons le principe d’asymétrie des idioties , ou la loi d’Alberto Brandolini, programmeur italien, qui décrit la complexité de la modération :
» La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire. »
Cet espace numérique, le cyber-espace évoque souvent, le Far-West !
Un chiffre : pour la désinformation sur Facebook, sur un sujet polémique, un point culminant de environ 200 millions d’engagements mensuels a été enregistré.
Être sur Internet, renforce parfois un sentiment d’impunité dû notamment à l’anonymat.
Plus précisément, 5,4 % des commentaires publiés en ligne sont de nature toxique.
Ce taux assez bas vous étonne ? Alors, si vous remarquez davantage d’agressivité sur vos fils, un nettoyage au sein de votre communauté, est à envisager.
Pour les marques les commentaires mal modéré coûte cher. Plus généralement, la modération convoque des enjeux démocratiques et politiques…
Pourtant la vision initiale des créateurs de ces plateformes prônait la possibilité de débats et d’échanges
En témoigne Jack Dorsey, fondateur de Twitter en 2018 . Face au Sénat américain, il définissait son réseau comme une place publique numérique. Pour des échanges libres et ouverts. Certes, mais conçu par des entreprises privées.
Ces agoras sont dépendantes de contraintes économiques. La modération des contenus doit s’inscrire dans ce modèle économique. Chacune devrait trouver un consensus sur le traitement des contenus politiques ou idéologiques. Alors le numérique est mondial, mais les plates-formes sont majoritairement américaines. Et nous n’avons pas la main !
C’est pourquoi l’objectif du règlement du DSA européen est de garantir un niveau minimum de modération, surtout toutes les plates-formes.
Il stipule : elles devront veiller à l’application des lois du réel, dans le monde virtuel, en intégrant un outil de signalement, avec une obligation de réaction rapide. En France, soulignons le nouveau plan de lutte gouvernementale contre le racisme et la haine en ligne, qui prévoit la création d’un guichet unique pour centraliser les signalements et préparer les éléments juridiques et techniques nécessaires au travail de la police.
Sur les réseaux sociaux les plus suivis, comment se passe la modération ?
Pour Twitter, la volonté affichée d’Elon Musk est de la limiter drastiquement. Pour lui, les fausses nouvelles n’existent pas. Si quelqu’un affirme que la Terre est plate, c’est son droit. Il a d’ailleurs licencié une partie des équipes de modérateurs, et Twitter devient l’outil libertarien conforme à ses visions. Jusqu’à présent, sur Facebook, tout message peut-être masqué ou supprimé. Le troll, le spam peuvent être bannis, et l’expéditeur exclu de la page concernée.
Osons maintenant une pointe de sensualité ! Les images contenant des mamelons de femmes, sauf dans certains contextes de santé, sont interdits sur FaceBook.
Ici, on a le droit !!
Pourquoi alors, les images d’Hommes torses nus sont autorisés ? Le conseil de surveillance de Meta appelle à revoir cette règle sur la nudité
Comment établir des garde-fous devant des publications nuisibles ? Il y aurait plusieurs solutions :
l’automatisation, c’est difficile. Car les algorithmes sur lesquelles elle s’appuie reste imprécis. Comme l’observe Asma Mhalla cela ne suffirait pas. Il faut contextualiser, aux lieux, aux environnements, culturels, politiques , aux situations, etc. Celle du shadow ban ? C’est-à-dire bannir un utilisateur sans que celui-ci en ait conscience. Le Rageux qui fait le commentaire, le voit posté sur la page, mais il est invisible pour les autres visiteurs.
C’est assez dissuasif. Interdire ? Ce serait une forme de censure. Et afficher une contradiction. Alors que l’on est partisan de la liberté d’expression.
Et un système hybride ? D’un côté, l’utilisation d’algorithme de détection pour retirer automatiquement les contenus les plus violents, et de l’autre, le recours à des modérateurs professionnels, chargé de trier le reste.
Évoquons aussi la réponse collective : avec une modération communautaire, comme sur Twitch.
Est-ce efficace ? Oui mais pas toujours, lorsque sans aucune raison, l’outil bloque sur le mot « breton » !!
Cette tâche de modération est titanesque. Chronophage, traumatisante, et souvent inefficace, pour maintenir un environnement paisible et démocratique. Néanmoins, toute plate-forme devrait allouer les moyens et les ressources nécessaires
Les chercheurs de l’université de Cornell, ont développé une intelligence artificielle capable de déterminer si les conversations en temps réel prennent une mauvaise tournure. Elle suggère des moyens pour désamorcer les échanges agressif. La solution est peut-être là??