Deux ans de développement auront permis d'aboutir à Lokus, le nouvel outil de modération et gestion des conversations en ligne d'Atchik. Puissant, fluide, plus précis dans la détection, le successeur de Safescreen Dashboard fait ressortir toute la valeur des conversations en ligne. Sur toutes les plateformes. Un outil précieux pour une entreprise de modération, de gestion et d'analyse des commentaires comme Atchik mettant la valorisation des conversations en ligne au coeur de son intervention.
Un paradoxe perdure du côté des réseaux sociaux. Alors que le côté social devrait se trouver au centre des préoccupations, Facebook, Youtube, LinkedIn et consorts ne considèrent toujours que trop peu les commentaires en ligne, dans leur modération en tant que plateformes comme dans leurs possibilités de gestion pour les administrateurs de pages et les modérateurs. Quand elles existent, les interfaces de type business manager manquent d'efficacité, d'ergonomie ou tout simplement de données utiles. Or, pour une société comme la nôtre proposant de la modération, du community management ou de la relation client digitale, l'exigence de qualité requiert des outils de gestion des conversation plus complets et mieux adaptés.
C'est pour répondre à ce besoin que les développeurs d'Atchik ont mis au point Lokus, nouvel outil de modération de commentaires, animation, réponse et analyse des conversations en ligne. Bien sûr, l'outil permet de prendre en charge de volumes de messages très importants... Mais, surtout, il met l'intelligence artificielle au service du savoir-faire des équipes. Comment ? En permettant un niveau de tri, de précision de traitement et de réaction inégalé.
Grâce à son système de pré-filtrage, basé sur la sémantique et une maîtrise lexicale hybride entre intelligence artificielle et retours d'expérience, Lokus permet aux modérateurs, community managers et chargés de veille de se concentrer sur l'essentiel : l'analyse et le traitement personnalisé des avis, commentaires et conversations pour :
Les tentatives de Google, Facebook ou Instagram l'ont montré : une machine ne peut pas entièrement remplacer un modérateur. Elle est, en revanche, un outil de modération et d'aiguillage très précieux, voire indispensable aujourd'hui, dans un contexte de demandes d'interactions croissantes et de préoccupations liées à la haine en ligne.
Des institutions comme l'Elysée ou la CNAM aux médias comme RTL ou France 24, en passant par Carrefour ou Bjorg entre autres références, Atchik s'est fait connaître ces dernières années à travers ses services de modération, de veille, de conseil, d'animation et de relation client en ligne . Aujourd'hui, Lokus permet de passer un seuil inédit dans la gestion des conversations. En rendant rapidement disponibles les enseignements-clés et la plus-value du traitement du web social tout en maîtrisant les coûts, quelle que soit la situation.
Quelques fonctionnalités de Lokus |
---|
– Signalement rapide aux modérateurs des éléments à risque (menaces, propos suicidaires…) ; – Aiguillage des messages basé sur une intelligence artificielle et un savoir-faire reconnu ; – Détection améliorée de tendances, d’évolutions de thématiques et d’émergence de signaux faibles dans les conversations ; – Détection par Lokus des contributeurs d’intérêt (youtubeurs, contributeurs réguliers, influenceurs, élus…) pour personnalisation de la réponse. |
La modération constitue le premier niveau de veille sur les comptes sociaux. Quoi de mieux, donc, qu'un outil de gestion des conversations comme Lokus pour détecter efficacement les tendances et éléments de valeur ?
Avec une capacité de recherche décuplée, Lokus permet de rendre compte du nombre d'infox circulant sur un ou plusieurs comptes selon leur type, de témoigner pour les médias de l'évolution du nombre de signalement de "coquilles" dans les commentaires ou encore d'approfondir l'analyse sémantique autour d'un thème abordé sous une publication.
D'abord, il permet la lutte efficace contre la haine en ligne. Ensuite, il met en valeur les internautes les plus constructifs pour vous. Il permet, dans la foulée, de mener la bonne action sur le bon contenu. Enfin, il facilite la restitution de toutes les informations-clés transitant par les avis et commentaires. Lokus a été construit pour servir la philosophie d'intervention qui guide les équipes d'Atchik depuis toujours.
Pour libérer le potentiel des conversations en ligne.
➡ Contactez-nous pour obtenir une présentation plus détaillée.
Pandémie, confinement, vaccination, élections présidentielles, faits divers sont autant de sujets sur lesquels les Français donnent leur avis sur les différents médias sociaux. Pour en garantir la tenue, ces conversations sollicitent un service de modération des commentaires des médias. Dans cette offre de réseaux sociaux et plateformes, Facebook reste encore pour la majorité des journaux le canal privilégié des lecteurs pour commenter, discuter et débattre dans la (plus ou moins) bonne humeur. Dans ce contexte, quelles stratégies les rédactions peuvent-elles mettre en place pour assurer la propreté de leurs réseaux sociaux, tout en préservant la liberté d’expression, les échanges cordiaux et constructifs et tirer profit des commentaires à forte valeur ajoutée pouvant s’y trouver ?
Quels que soient les objectifs poursuivis, les journaux doivent avant tout penser à la protection de leur image de marque. Et pour cela, ils doivent mettre en place une stratégie de modération efficace. Or, face à des commentaires pouvant parfois représenter plusieurs millions de messages par mois sur les différentes plateformes, plusieurs options se présentent pour assurer ce travail de modération. Ils peuvent, par exemple, laisser les journalistes assurer eux-mêmes cette mission, la déléguer aux community managers, recruter des modérateurs ou, dans une véritable optique de professionnalisation, faire appel à une société de modération dont c’est le métier.
Premier constat : les journalistes et les CM, déjà très occupés, ont peu de marge pour assurer la modération. Composer une équipe de modérateurs pouvant travailler tous les jours et 24h/24 n’est pas non plus toujours chose facile. Disposer du recul nécessaire et de la capacité à s’adapter à de fortes variations de volumes non plus.
Pour toutes ces raisons, les rédactions privilégient le plus régulièrement l’externalisation à une société de modération. Elles peuvent compter, pour cela, sur des entreprises comme Atchik pour les accompagner et protéger leur image.
Véritable décision stratégique, l’organisation de la modération des commentaires des médias conditionne son efficacité mais aussi sa pertinence sur le long terme, dans les temps faibles comme dans les pics d’actualité.
Depuis sept ans, Atchik travaille continuellement sur ses algorithmes et ses filtres pour offrir une modération des commentaires des médias efficace et rapide qui doit répondre à plusieurs objectifs.
Le premier consiste à protéger l’image de la marque. Pour les médias, cela consiste à supprimer le plus rapidement possible les contenus haineux, insultants et racistes. Grâce à sa technologie de modération augmentée, Atchik dispose d’une solution lexicale et sémantique capable d’isoler les éléments clairs de la haine en ligne pour les rendre invisibles.
Elle permet également de jouer sur le type de modération, que nous détaillons dans notre article sur la modération a priori et a posteriori. Alors que modérer depuis Facebook se fait forcément après publication, notre outil offre lui la possibilité de masquer, dès leur réception, les contenus problématiques avant qu'un modérateur ne les passe en revue.
De fait, notre intervention limite considérablement la capacité de nuisance de la haine en ligne.
Dans le même temps, cette solution technique permet de fluidifier les conversations en favorisant les contenus conversationnels à forte valeur ajoutée. Et s’il permet ce filtrage automatique, l’algorithme s’ajuste aussi en fonction des besoins. Ce système permet aux modérateurs de concentrer leurs efforts sur les éléments méritant une véritable attention.
➡ Un projet à nous présenter ? Contactez-nous
Si certains contenus haineux ou polluants ne nécessitent pas d’interventions, d’autres méritent au contraire une vraie expertise. C’est le cas des messages plus ambigus, des droits de réponse mais aussi des fausses informations, des témoignages d’internautes ou encore des contenus à risque.
Quels sont ces contenus à risque ? Propos menaçants, pensées suicidaires... Voire revendications d’actes terroristes peuvent survenir dans les commentaires. Bien que rares, ils doivent toutefois faire l’objet d’une attention sans faille. Dans le cas de messages nécessitant un signalement à la plateforme Pharos, pour un péril imminent ou une violation claire de la loi, les modérateurs restent incontournables.
Plus largement, les modérateurs vont pouvoir prendre la décision adaptée sur les contenus les plus sensibles, les plus complexes et les plus ambigus. Si les insultes à caractère raciste ne laissent que peu de doute, les propos plus ambigus comme « Celui qui a fait ça n’a pas dû grandir près des fjords », selon le contexte, peuvent revêtir un caractère haineux.
Enfin, la modération humaine permet de signaler les messages les plus intéressants pour une rédaction comme les témoignages, les réponses de personnalités ou les tendances de fond qui transitent par les commentaires. Aux premières loges des conversations, ils en révèlent toute la valeur.
Dans leur vie quotidienne, nos modérateurs sont aussi des lecteurs des médias français. Pour les vivre directement, professionnellement comme personnellement, ils comprennent les phénomènes qui transitent dans les conversations en ligne.
Références historiques ou culturelles, évolutions de langages, sous-entendus, faits d’actualité : les modérateurs d’Atchik ont toutes les références. Recrutés pour leur culture générale et leur esprit d’analyse, ils assurent un suivi de qualité sur les différents espaces, de Facebook aux sites de presse en passant par Youtube et tous les réseaux sociaux pertinents pour les médias.
Les modèles économiques des médias reposent sur deux ressources principales :
Et si le premier implique de garder des espaces attractifs, le second doit aussi permettre de fidéliser ses lecteurs. Et c'est là que la modération des commentaires des médias a son rôle à jouer.
Ainsi, que peut-on garantir à un abonné ? D’abord, de ne pas regretter son choix. Il est donc primordial de lui fournir un service de qualité... Et, donc, des espaces de commentaires conformes à ses attentes éditoriales.
Ensuite, la capacité à commenter constitue une raison de rester. Et au-delà, recevoir des interactions de qualité en toute sécurité augmente cet intérêt la fierté de contribuer au média.
Enfin, toute récompense de sa fidélité s’avère intéressante… Ainsi, mieux vaut pouvoir compter sur des modérateurs connaissant bien les communautés pour identifier les internautes les plus remarquables.
Mais au-delà, comment donner envie aux lecteurs de s’abonner ? Là encore, le modérateur attentif pourra identifier les contributeurs réguliers à qui proposer diverses formules, voire une version d’essai préférentielle… Et donc monétiser ces espaces de commentaires.
➡ Découvrez Mediaktiv, notre offre de modération conçue pour les médias
Ajoutés aux nombreux témoignages pouvant alimenter chaque jour la rédaction en articles potentiels, ces services réguliers rendus par un service de modération expert des médias permettent de renforcer la cohérence éditoriale… Mais aussi le modèle économique et la rentabilité des titres.