Lecteurs d’articles de presse en ligne, contributeurs de forum, nous avons tous fait l’expérience de ce message d’alerte qui apparaît à côté des commentaires : « signaler un abus » ou de cet avertissement : « Les commentaires seront publiés dans leur intégralité ou supprimés s'ils sont jugés non conformes à la charte » mais qu’est-ce qui se passe derrière cela exactement, comment fonctionne la modération ? Quels en sont les enjeux à l’heure d’une société hyper connectée, hyper informée voire désinformée ? Souvent taxée de censure, elle est de plus en plus invoquée comme une nécessité. Nous allons voir qu’au-delà d’être un garde-fou nécessaire pour garantir la liberté d’expression dans de bonnes conditions, elle peut être un véritable outil de maîtrise de son contenu pour un média... Décryptage.
La modération : pas si simple
Concrètement, la modération est le fait de contrôler les commentaires laissés par les internautes sur les sites web, réseaux sociaux, blogs ou forums pour ne pas laisser les messages à caractère illicite (racistes, diffamatoires) ou hors-charte (une charte de bonne conduite établie par le propriétaire de la page pour préciser les règles de bienséance de son espace : exit insultes, vulgarité, usage abusif de majuscules par exemple). Tout média laissant un espace de discussion est confronté à des comportements abusifs, à l’existence de trolls aussi dont le but même est d’empêcher tout débat. La modération a pour but de rendre possible l’expression de toutes les opinions dans un espace serein. Par son rôle de régulation elle doit uniquement empêcher ce qui va à l’encontre de cette liberté, des lois et de la bienséance fixée par le responsable de l’espace de commentaires. Comment s’opère-t-elle ?
La modération est effectuée par une personne ou par une machine, i.e. un système de modération automatisé suivant un algorithme prenant en compte les règles préalablement formulées. Les modérateurs ne pourraient en aucun cas être exclusivement remplacés par des filtres et des machines. En effet, il est difficile pour une machine de saisir l’ironie, ou bien de saisir la portée d’une référence utilisée par l’internaute. Le filtre permet de saisir un mot ou expression mais le même mot dans deux contextes différents n’aura pas la même portée. De l’intérêt d’un modérateur cultivé et averti !
A lire : Top 10 des commentaires qui ne passent jamais la modération
Rentrons désormais dans le vif du sujet : il existe trois types de modération et nous allons voir pourquoi. La modération peut être effectuée avant et/ou après que le message ait été posté par l’internaute : a priori, a posteriori et sur alertes :
- A priori : les commentaires ne sont pas en ligne tant qu'une décision n'a pas été appliquée par le modérateur.
- A posteriori : lorsqu'un utilisateur poste, il voit directement sa contribution en ligne. Le modérateur, après contrôle, peut cependant la masquer.
- Sur alertes : les messages ont tous été publiés et acceptés par défaut mais si un utilisateur repère du contenu problématique, il peut le signaler au modérateur qui prendra une décision.
On voit aisément l’intérêt de ces différents modes opératoires : si toute la modération se faisait en a priori, il n’y aurait pas de fluidité du débat. Chacun devrait attendre la décision du modérateur avant de voir son message apparaître : de l’intérêt d’un filtrage le plus fin et rapide possible des contributions sur l’espace par un algorithme pour que la modération a priori soit consacrée aux seuls messages qui après filtrage auront été jugés sensibles. Par exemple, un terme comme le burkini aujourd’hui devra être automatiquement repéré pour réserver le message à la main experte du modérateur pour traiter du sens du message entier. Le modérateur humain devrait se consacrer à l’essentiel et pas ne perdre son temps sur des messages anodins. Le live d’une personne célèbre sur Facebook peut générer des milliers de messages du type : bonjour !... On mesure la perte de temps…
Si votre commentaire est en attente de modération, nous l’avons vu, il s’agit d’un traitement en a priori. La particularité d’Atchik est d’avoir panaché ce type de modération pour proposer un filtrage plus fin et performant aux intérêts multiples : c’est ce qu’on appelle la modération augmentée.
La modération augmentée : la prise en compte des commentaires
Sur un même article, on l’a vu, il peut y avoir de l’a priori et de l’a posteriori pour permettre la fluidité du débat. Mais un filtrage classique permettra seulement de filtrer des expressions ou des mots-clés et va se contenter de proposer le refus simple du mot ou de l’expression incriminés.
La modération augmentée repose sur la création de plusieurs types de filtres constamment mis à jour grâce à la l’analyse en direct des messages opérée par le modérateur. Seule une bonne connaissance des communautés géographiques, culturelles, ou spécialisée sur un sujet permettra d’élaborer des dictionnaires lexicaux difficilement appréhendés par un robot ou un non-initié. Le modérateur est ici aussi un veilleur. Les filtres prennent en compte chaque client pour suivre leur spécificité, par exemple les mots ou expressions relatives à un domaine spécialisé, tel que la course hippique ou le football… mais aussi les coutumes langagières renouvelées. Et sur le fond, une réactivité sans faille sur tout sujet porteur de risque. La modération augmentée fait donc appel à l'intelligence humaine et à une mise à jour quotidienne des filtres et dictionnaires.
Imaginez une cascade de commentaires, notre système les fait passer par différents tamis successifs. A chaque niveau, différents filtres et dictionnaires sont mobilisés par l’algorithme pour déterminer le type de modération le plus adapté à chacun, ainsi que ce qui peut être accepté ou refusé automatiquement sans souci. Le message est ainsi décortiqué au maximum mobilisant une multitude de dictionnaires et filtres généraux mais aussi spécifiques qui permettent de définir une politique de routage des objets de A à Z : déterminer ainsi à quel type de modération on a à faire et permettre au modérateur de se concentrer sur les seuls messages à risques ou dignes d’intérêt pour le client. Grâce à ce processus, on aboutit à 2 catégories de messages : les refusés ou acceptés automatiquement (par exemple : salaud ou bonjour) et de l’autre côté le contenu soumis au traitement humain classé en prioritaire ou non. Le travail du modérateur n’est plus seulement de refuser un message mais le temps libéré lui permet d’analyser sur le fond tous les messages dignes d’intérêt (nous avons d'ailleurs édité un livre blanc à ce sujet). Le modérateur-veilleur, libéré du bruit non pertinent, peut se concentrer sur les tendances des contributions.
[✅ 100% Atchik] Qui a dit que la #moderation revenait seulement à choisir si l'on accepte ou pas un message ? À ne traiter que les contenus problématiques ? Sachez que c'est un métier bien plus... tentaculaire et à forte valeur ajoutée 🐙#communitymanagement #reseauxsociaux pic.twitter.com/GY8BaLvvy5
— atchik (@atchik) July 24, 2019
Chaque propriétaire de page est responsable de son contenu et il n’est plus possible de passer à côté de cette question de conscience ou de responsabilité des médias dans un monde hyper-connecté où la maîtrise de l’information est un réel pouvoir, cf. les scandales des élections présidentielles américaines. La modération augmentée permet de prendre en compte le contenu des contributions pour saisir les tendances des réactions utiles pour un CM pour interagir plus rapidement et efficacement avec sa communauté, voire le relayer ; mais aussi pour un journaliste pour aller plus loin sur un sujet, et pour un média pour maîtriser son espace et valoriser sa communauté comme l’a fait le New York Times.
Magali