S'il y a bien une notion qui compte pour prétendre à une modération de qualité, c'est l'expertise. Celles des modérateurs bien entendu mais, plus globalement, celle d'une équipe qui sait s'appuyer sur les bonnes pratiques et les bons outils pour entretenir au mieux les conversations en ligne. Car il ne suffit pas de saupoudrer de technologie un espace pour prétendre assurer la modération : entre respect de la liberté d'expression et respect de la charte de modération, tout est question de dosage... Et d'expérience. Suivez le guide !
"Science sans conscience n'est que ruine de l'âme". Il en va de même pour des algorithmes aveugles ou des filtres mal maîtrisés. Alors que les outils, entre de bonnes mains, peuvent faire des miracles, on pourrait difficilement concevoir que la liberté d'expression soit entièrement confiée à une machine, sans quoi le risque de censure ou de faille deviendrait trop important. C'est, d'ailleurs, la mésaventure que connaît Facebook, entre autres, face aux enjeux de modération, dès qu'un algorithme est modifié.
Alors, comment trouver le bon dosage ? Revenons en quelques points sur les fondamentaux.
Comme vous le savez, certains réseaux sociaux disposent de filtres automatiques intégrés. A l'image de Facebook, qui met à disposition une liste de termes à bloquer, les champs lexicaux et sémantiques donnent un premier niveau d'intervention.
A une échelle professionnelle, ces filtres peuvent contenir davantage de nuance. On retrouve notamment une granularité plus fine dans la modération sur Twitch ou dans quelques solutions du marché. Mais concrètement, aussi belle soit la promesse, la solution 100% automatique ne peut s'avérer 100% satisfaisante.
En effet, comment permettre à une machine de détecter l'ambiguité dans un message tout en lui laissant la capacité de décider de son sort derrière ? Voici pourquoi, chez Atchik, tout notre travail de développement a conduit à une solution de modération boostée à l'intelligence artificielle... Et aux retours humains.
Plutôt que de substituer l'outil à l'homme, considérons la modération automatique pour ce qu'elle est : un outil.
Au minimum, il est donc possible de :
Nous proposons ce type de formule. Simple, fluide, léger, le système permet de protéger un espace efficacement... Sans risquer de passer à côté d'un élément très sensible tel qu'une menace envers une personne, des propos suicidaires ou toute autre revendication critique.
Toutefois, l'intérêt de la modération de contenu reste, au-delà du filtrage pur et simple, de pouvoir intervenir efficacement dans les conversations, d'engager les bonnes actions et de dégager toute la valeur des interactions. Et c'est là que se rejoignent, précisément, l'expérience d'une équipe et la performance des outils à disposition.
A l'image du système d'alerte évoqué plus haut, la modération automatique doit de toute façon s'appuyer sur une relecture humaine, ne serait-ce que pour les cas les plus graves. C'est, ici, un minimum.
Mais qu'en est-il de la richesse des conversations ? Comment dégager des informations-clés des espaces de commentaires pour améliorer la relation client, les offres ou la communication ? Comment interagir au mieux avec les communautés ?
C'est là que l'automatisation doit servir, avant tout, d'aiguillage. Et que la modération mixte apporte le meilleur de toutes les solutions.
En pensant notre outil de modération comme un système d'aiguillage, nous permettons à nos équipes de :
En clair, il en va de la modération et, plus globalement, de la gestion des conversations en ligne comme du reste : avec les bons outils, on peut réellement laisser le savoir-faire s'exprimer. Et, en l'occurrence, révéler toute la richesse des contenus de vos espaces.
Cependant, dans la configuration actuelle du web social, les outils ne parviennent pas, aussi bons soient-ils, à couvrir la totalité des espaces à modérer ou sur lesquels interagir... C'est là que le savoir-faire de la modération manuelle reste indispensable !
Quoi ? Nous sommes en 2021 et les outils ne sont pas capables d'aller partout ?
Plus exactement, les outils ne sont pas autorisés à aller partout. Si certains réseaux sociaux sont bien balisés, à l'instar de Facebook, Instagram, Twitter ou LinkedIn, d'autres restent plus difficile à appréhender depuis un outil externe.
Prenons le cas de TikTok : difficile de proposer une intégration à un outil de modération alors même que le réseau ne dispose pas d'API... Il convient donc de modérer en natif, directement sur la plateforme. D'ailleurs, l'appli star de ByteDance a bien saisi les enjeux de cette modération puisque, comme on vous le disait récemment, TikTok a rendu possible la modération par paquets... Afin de faciliter le travail des modérateurs sur TikTok.
Idem pour la modération des groupes Facebook : l'architecture rend l'automatisation difficile... Et pour le coup, compte-tenu de la particularité de ces espaces, c'est probablement une bonne nouvelle !
Enfin, si l'on cherche à vous vendre une modération automatique coûteuse sur Twitch, sachez que pour l'heure, l'interface offerte en natif reste bien plus intéressante (y compris pour installer des filtres automatiques) et... Gratuite. Autant faire appel à de vrais modérateurs pour ajuster ces filtres et animer les échanges, non ?
Et quoi qu'il arrive, quelle que soit votre problématique de gestion des commentaires et avis en ligne, quel que soit votre volume de conversations à traiter, animer ou analyser... Le mieux reste de nous contacter 📳😉
Comment tirer le meilleur des conversations en ligne ? Pour les médias, l'enjeu est de taille, notamment pour exploiter les nombreux témoignages qui parviennent en commentaires. Notre retour chiffré sur la modération opérée au premier trimestre 2021 pour France Médias Monde éclaire sur les possibilités.
Les conversations en ligne prennent une part toujours plus importante dans l'animation du web social. En 2020, l'activité d'Atchik a ainsi augmenté de 40%. Dans leur étude auprès de mille professionnels de la communication et du marketing, Talkwalker et Trustpilot rapportent également que "82% des participants estiment que la pandémie a bouleversé leur perception des conversations des consommateurs". Avant même d'engager la conversation dans les commentaires sur les réseaux sociaux, ce qui s'avère déterminant, la qualité de l'activité de modération va permettre de rendre toute leur valeur, tout leur intérêt aux espaces de discussion... Mais aussi de détecter tous les contenus de valeur.
Prenons le cas de France Médias Monde, groupe chargé de l'audiovisuel international français, pour qui nous assurons la modération sur les réseaux sociaux. RFI et France 24 par exemple font partie de France Médias Monde. Ces canaux, en plusieurs langues et sur divers réseaux sociaux, représentent des volumes considérables de messages qui parviennent de toute la francophonie et, au-delà, du monde entier.
Comment, dès lors, faire face tout en assurant une qualité de service à tout instant ? Nos équipes, en s'appuyant sur une solution logicielle propriétaire :
🟢 Ecoutent, analysent et traitent chaque jour des milliers de contenus...
🟢 En tirent de précieuses informations, restituées aux rédactions de FRANCE 24 et RFI - Radio France Internationale.
Découvrez ci-dessous notre rapport chiffré portant sur l'activité des trois premiers mois de l'année 2021 :
Et pour aller plus loin : retrouvez notre livre blanc consacré à la valorisation des espaces de discussion des médias.