Découvrez Atchik-Booost.com, notre solution pour optimiser la visibilité des petites et moyennes entreprises
Produit sujet à polémique, prise de parole maladroite d’un collaborateur, retombées liées à la guerre en Ukraine : personne ne peut se garantir à l'abri d'une implication forte ou d'un « bad buzz » sur les divers espaces du web social. Facebook, Twitter, Instagram, TikTok ou Telegram sont des outils de communication amplifiant grandement la diffusion de l’information : il est donc primordial de les écouter. Plutôt que de subir, il vaut mieux avoir anticipé et mis en place un dispositif de veille et gestion de crise e-réputation afin de pouvoir agir le plus efficacement possible. Si chaque crise a ses spécificités, il reste quand même possible de s’y préparer. Alors, lorsque son image de marque est engagée, comment réagir ?
De nombreuses marques ont souffert d’une mauvaise image en ligne à un moment donné de leur existence. Il y a quelques temps, Décathlon ou plus récemment Nestlé, avant d'annoncer son retrait de Russie, ont vu leur réputation dégradée par la diffusion sur les réseaux sociaux d’éléments sujets à polémique, ayant même mené à des appels au boycott. Et ce ne sont évidemment pas les seules entreprises à avoir vécu un tel épisode : on se souvient notamment d’H&M et de son sweat « Coolest monkey in the jungle » ou du spot de promotion de Dolce & Gabbana en Chine qui avaient été jugés racistes.
Qu’un bad buzz surgisse à travers les réseaux sociaux ou qu’ils n’en soient que vecteur de transmission, il est fortement conseillé de les investir, de les suivre, afin d’être capable de détecter un potentiel départ de feu : c’est là que la veille, dans ses dimensions de social listening et social media monitoring, entre en jeu.
Dans le meilleur des cas, si un plan de gestion de crise a été défini en amont et qu'une veille régulière est déjà effectuée, le pire devrait plus facilement être évité. La surveillance constante de l'activité en ligne permettra à la structure mise en cause d’être prévenue dès lors que l’information à son sujet commencera à être diffusée, ce qui lui laissera le temps d’activer une cellule de crise et de définir un plan d’intervention pour calmer le jeu rapidement.
En période de troubles, une veille quotidienne 7 jours sur 7 est fortement conseillée : elle permettra d’être alerté dès qu’un contenu potentiellement viral ou nécessitant une action est posté dans la presse ou sur les réseaux sociaux. En cas d’incapacité à assurer une surveillance en continu, il est toujours possible de faire appel à des structures expertes du domaine - comme nous - qui pourront prendre le relais.
🔥 A quoi sert la #veille dans la #gestiondecrise ?
🚿 A ne pas avoir à passer pour des héros (et tous les pompiers seront d'accord, c'est beaucoup mieux comme ça).
Via @_workchronicles pic.twitter.com/IW7lo2Y1Iz
— atchik (@atchik) March 10, 2022
La gestion d’une crise peut parfois engager une grosse quantité de travail supplémentaire, surtout qu’il est important d’être présent en continu. Des entreprises spécialisées existent et pourront, en fonction des cas, intervenir à plusieurs niveaux. Si c’est cette option qui est choisie, attention à avoir clairement défini le rôle ainsi que le périmètre d’action de chacun pour que la crise soit gérée le plus efficacement possible. Les parties prenantes gagneront ainsi du temps... Et de l’énergie !
Les spécialistes de l’e-reputation pourront être amenés à transmettre des points d’étape de la situation aux acteurs en interne, contenant des données quantitatives (évolution du nombre de mentions, contenus à forte portée,…) ou qualitatives comme des synthèses ou des tendances d’opinion qui permettront, d’un coup d’œil, de savoir de quelle manière la crise évolue et qui serviront à définir le reste des actions. De nombreux outils de social listening, tels que Talkwalker, Visibrain ou Sysomos permettront, grâce à des « requêtes » précises, de faciliter le travail des analystes. Tout sera donc scanné par les équipes, des médias en ligne aux réseaux en passant par vos espaces propriétaires qui ne sont pas à négliger.
Ils pourront également apporter des préconisations d’intervention comme des prises de parole ou des créations de posts voire intervenir eux-même directement, grâce à des éléments de réponse construits conjointement en amont et apportés aux internautes afin de temporiser la situation et les rassurer quant à la valeur de leur commentaire. Dans le cas de Décathlon par exemple, on voit à quel point l’intervention rapide et pertinente de Yann, le community manager de la marque, a permis à la polémique de s’éteindre rapidement.
Aujourd'hui encore, malgré les différents exemples qui émaillent régulièrement l'actualité, de nombreuses marques et institutions ne se sont pas munis d’une veille préventive et ont tendance à prendre des décisions seulement au pied du mur. Et comme nous l'avons vu, sans visibilité à plus ou moins long terme, difficile d’agir de manière efficace… Alors pour une e-réputation soignée, anticipez !
Certains commentaires vous choquent sur les réseaux sociaux ? S'ils ne proviennent pas de discussions privées ou entre amis, peut-être émanent-ils de pages qui manquent de modérateurs... Car sous les articles de médias ou dans les espaces de commentaires de comptes sociaux bien administrés, les équipes de modération assurent la qualité des échanges... Et leur caractère licite. Il y a donc des commentaires que, sous certains espaces, vous ne devriez (presque) jamais voir : on en fait le tour ici.
Pour vous, les internets forment une jungle où le danger rôde partout ? Si c'est l'impression que beaucoup d'échanges peuvent donner, la haine en ligne ne représente que 10% des contenus des conversations du web social... Et sur tous les comptes sociaux bien administrés, des équipes de modérateurs assurent la pertinence des commentaires. Car oui, en-dehors du travail "global" effectué par Facebook, Twitter, Instagram et consorts, des sociétés de modération comme la nôtre garantissent la conformité des commentaires à la loi et à la charte de modération. Mais alors, quels commentaires, lorsqu'un espace bénéficie d'une modération de qualité, ne se retrouvent jamais en ligne ? On vous a retenu les dix cas les plus emblématiques.
Cela peut paraître évident, non ? Qu'il s'agisse de propos insultants ou injurieux envers la personne citée dans un post ou article, envers l'auteur / la rédaction ou envers un autre internaute, l'agression verbale constitue déjà en soi... Une agression.
Donc, c'est non.
Bien sûr, dans des cas de chambrage ou d'ironie, dans des contextes bien particuliers, "modération" va rimer avec "pondération" pour garder de la vie dans les contributions : et c'est bien pour cela que l'arbitrage humain reste indispensable. Mais les commentaires ayant pour seul but une agression, seule ou avec effet cumulatif, ne sauraient rester en ligne.
Même chose : si une personne pense que l'ajout de "Méchancon", "le président Macrotte" ou "Jean Casse-Tête" sert son propos... Il se trompe. Le sobriquet, qui vise à ridiculiser la personne en déformant son nom, relève de l'injure.
Très souvent, le sobriquet vient en renfort lorsque les arguments viennent à manquer... En clair, une contribution qui parle des "merdias", des "journalopes" ou des "politichiens" manque, la plupart du temps, de fond. Si vous tombez dessus, c'est assez facile à vérifier 😅
Les gens qui disent "BFMerde TV" sont-ils les mêmes qui parlent de "Face de bouc" ?
— Mickaël Frison (@mkfrison) June 18, 2019
Faut-il vraiment préciser pourquoi ? Toute discimination d'une personne ou d'un groupe de personnes sur la base de son origine, de son orientation sexuelle, de ses croyances... Constitue un délit au regard de la loi.
A lire : Modération des commentaires des médias : quelles solutions ?
Plutôt logique, non ? Ici, le modérateur protège l'identité et les données personnelles de tout un chacun, qu'il s'agisse d'une personne dont les coordonnées sont rendues publiques ou... De l'internaute en personne. Il n'est pas rare, en effet, de trouver encore des gens laissant leur numéro de téléphone, leur adresse e-mail voire... Leur numéro de carte bancaire (sic) dans les commentaires en ligne.
Lire 50 fois le même message ? Ce n'est agréable pour personne. Pour éviter cet engorgement, qui ressemble à du tapage, les modérateurs et outils paramétrés en conséquence vont filtrer les doublons, triplons, centuplons...
Là encore, la modération joue un rôle de protection. Confrontée à un message sensible, elle se doit moralement et légalement de réagir, pour ne pas laisser de situation de non-assistance à personne en danger.
Si les menaces interpersonnelles avec mise en danger de la vie d'autrui existent, les pensées suicidaires font malheureusement partie, elles aussi, des contributions appréhendées par les modérateurs... Sauf que dans ce cas précis, mieux vaut parfois laisser le message en ligne afin que la personne en détresse puisse recevoir du soutien de la communauté. Tout en procédant, bien sûr, aux signalements nécessaires à la prise en charge de la personne.
Là encore, il paraît assez évident de ne pas permettre aux trafics en tous genres et aux réseaux criminels de prospérer, à quelque niveau que ce soit. Et si, de plus en plus, nous constatons une visibilité des trafics de drogue sur les réseaux sociaux, les sociétés de modération comme la nôtre n'y peuvent rien puisque ces messages ne sont pas laissés en commentaires de posts ou d'articles de comptes sur lesquels nous intervenons.
Toutes les arnaques contenues dans les commentaires connaissent le même sort : dehors. Si l'on vous propose le "retour de l'être aimé", le "gain d'argent facile" ou la "réparation à distance de votre ordinateur par la pensée"... C'est que vous ne vous trouvez pas sur un espace (bien) modéré 😅
Imaginons : en parcourant tranquillement les commentaires sous le dernier post Instagram de Lacoste, un obscur compte Lacoste_ooficiel propose des polos à moitié prix... Douteux, non ? On peut imaginer que la marque n'aura pas tellement envie de laisser faire.
Variante : un titre de presse, qui vit de ses abonnements, impose une limite d'accès gratuit, au-delà de laquelle il faudra payer pour consulter les articles. On imagine facilement que le commentaire qui explique comment contourner le paywall n'aura pas sa place, n'est-ce pas...
Idem pour le lien de téléchargement pirate d'un film sur un compte de VOD etc.
Là encore, la loi s'applique. Dans l'espace public, la diffamation n'a pas sa place, portant atteinte à l'honneur. Autant dire qu'un été comme celui-ci, cumulant Euro de football, Tour de France et Jeux Olympiques ne laisse pas trop respirer les modérateurs entre deux affirmations de dopage sans fondement juridique, par exemple... Et on ne vous raconte pas ce qu'on trouve dans les propos complotistes (enfin si, on vous raconte).
La #modération, avec quelques épreuves de spécialité :
🔵 en temps de crise sanitaire
🔵 en période électorale
🔵 en période électorale durant une crise sanitaire
Etc. https://t.co/7N2G7uqHTb— atchik (@atchik) July 29, 2021
Bon, il arrive que certaines chartes de modération les autorisent mais comme chacun sait, PARLER EN MAJUSCULES REVIENT A CRIER ET C'EST TRES DESAGREABLE. En général... Un message a plus de chances de passer quand son auteur déverrouille le capslock 😉
Pandémie, confinement, vaccination, élections présidentielles, faits divers sont autant de sujets sur lesquels les Français donnent leur avis sur les différents médias sociaux. Pour en garantir la tenue, ces conversations sollicitent un service de modération des commentaires des médias. Dans cette offre de réseaux sociaux et plateformes, Facebook reste encore pour la majorité des journaux le canal privilégié des lecteurs pour commenter, discuter et débattre dans la (plus ou moins) bonne humeur. Dans ce contexte, quelles stratégies les rédactions peuvent-elles mettre en place pour assurer la propreté de leurs réseaux sociaux, tout en préservant la liberté d’expression, les échanges cordiaux et constructifs et tirer profit des commentaires à forte valeur ajoutée pouvant s’y trouver ?
Quels que soient les objectifs poursuivis, les journaux doivent avant tout penser à la protection de leur image de marque. Et pour cela, ils doivent mettre en place une stratégie de modération efficace. Or, face à des commentaires pouvant parfois représenter plusieurs millions de messages par mois sur les différentes plateformes, plusieurs options se présentent pour assurer ce travail de modération. Ils peuvent, par exemple, laisser les journalistes assurer eux-mêmes cette mission, la déléguer aux community managers, recruter des modérateurs ou, dans une véritable optique de professionnalisation, faire appel à une société de modération dont c’est le métier.
Premier constat : les journalistes et les CM, déjà très occupés, ont peu de marge pour assurer la modération. Composer une équipe de modérateurs pouvant travailler tous les jours et 24h/24 n’est pas non plus toujours chose facile. Disposer du recul nécessaire et de la capacité à s’adapter à de fortes variations de volumes non plus.
Pour toutes ces raisons, les rédactions privilégient le plus régulièrement l’externalisation à une société de modération. Elles peuvent compter, pour cela, sur des entreprises comme Atchik pour les accompagner et protéger leur image.
Véritable décision stratégique, l’organisation de la modération des commentaires des médias conditionne son efficacité mais aussi sa pertinence sur le long terme, dans les temps faibles comme dans les pics d’actualité.
Depuis sept ans, Atchik travaille continuellement sur ses algorithmes et ses filtres pour offrir une modération des commentaires des médias efficace et rapide qui doit répondre à plusieurs objectifs.
Le premier consiste à protéger l’image de la marque. Pour les médias, cela consiste à supprimer le plus rapidement possible les contenus haineux, insultants et racistes. Grâce à sa technologie de modération augmentée, Atchik dispose d’une solution lexicale et sémantique capable d’isoler les éléments clairs de la haine en ligne pour les rendre invisibles.
Elle permet également de jouer sur le type de modération, que nous détaillons dans notre article sur la modération a priori et a posteriori. Alors que modérer depuis Facebook se fait forcément après publication, notre outil offre lui la possibilité de masquer, dès leur réception, les contenus problématiques avant qu'un modérateur ne les passe en revue.
De fait, notre intervention limite considérablement la capacité de nuisance de la haine en ligne.
Dans le même temps, cette solution technique permet de fluidifier les conversations en favorisant les contenus conversationnels à forte valeur ajoutée. Et s’il permet ce filtrage automatique, l’algorithme s’ajuste aussi en fonction des besoins. Ce système permet aux modérateurs de concentrer leurs efforts sur les éléments méritant une véritable attention.
➡ Un projet à nous présenter ? Contactez-nous
Si certains contenus haineux ou polluants ne nécessitent pas d’interventions, d’autres méritent au contraire une vraie expertise. C’est le cas des messages plus ambigus, des droits de réponse mais aussi des fausses informations, des témoignages d’internautes ou encore des contenus à risque.
Quels sont ces contenus à risque ? Propos menaçants, pensées suicidaires... Voire revendications d’actes terroristes peuvent survenir dans les commentaires. Bien que rares, ils doivent toutefois faire l’objet d’une attention sans faille. Dans le cas de messages nécessitant un signalement à la plateforme Pharos, pour un péril imminent ou une violation claire de la loi, les modérateurs restent incontournables.
Plus largement, les modérateurs vont pouvoir prendre la décision adaptée sur les contenus les plus sensibles, les plus complexes et les plus ambigus. Si les insultes à caractère raciste ne laissent que peu de doute, les propos plus ambigus comme « Celui qui a fait ça n’a pas dû grandir près des fjords », selon le contexte, peuvent revêtir un caractère haineux.
Enfin, la modération humaine permet de signaler les messages les plus intéressants pour une rédaction comme les témoignages, les réponses de personnalités ou les tendances de fond qui transitent par les commentaires. Aux premières loges des conversations, ils en révèlent toute la valeur.
Dans leur vie quotidienne, nos modérateurs sont aussi des lecteurs des médias français. Pour les vivre directement, professionnellement comme personnellement, ils comprennent les phénomènes qui transitent dans les conversations en ligne.
Références historiques ou culturelles, évolutions de langages, sous-entendus, faits d’actualité : les modérateurs d’Atchik ont toutes les références. Recrutés pour leur culture générale et leur esprit d’analyse, ils assurent un suivi de qualité sur les différents espaces, de Facebook aux sites de presse en passant par Youtube et tous les réseaux sociaux pertinents pour les médias.
Les modèles économiques des médias reposent sur deux ressources principales :
Et si le premier implique de garder des espaces attractifs, le second doit aussi permettre de fidéliser ses lecteurs. Et c'est là que la modération des commentaires des médias a son rôle à jouer.
Ainsi, que peut-on garantir à un abonné ? D’abord, de ne pas regretter son choix. Il est donc primordial de lui fournir un service de qualité... Et, donc, des espaces de commentaires conformes à ses attentes éditoriales.
Ensuite, la capacité à commenter constitue une raison de rester. Et au-delà, recevoir des interactions de qualité en toute sécurité augmente cet intérêt la fierté de contribuer au média.
Enfin, toute récompense de sa fidélité s’avère intéressante… Ainsi, mieux vaut pouvoir compter sur des modérateurs connaissant bien les communautés pour identifier les internautes les plus remarquables.
Mais au-delà, comment donner envie aux lecteurs de s’abonner ? Là encore, le modérateur attentif pourra identifier les contributeurs réguliers à qui proposer diverses formules, voire une version d’essai préférentielle… Et donc monétiser ces espaces de commentaires.
➡ Découvrez Mediaktiv, notre offre de modération conçue pour les médias
Ajoutés aux nombreux témoignages pouvant alimenter chaque jour la rédaction en articles potentiels, ces services réguliers rendus par un service de modération expert des médias permettent de renforcer la cohérence éditoriale… Mais aussi le modèle économique et la rentabilité des titres.
Comment tirer le meilleur des conversations en ligne ? Pour les médias, l'enjeu est de taille, notamment pour exploiter les nombreux témoignages qui parviennent en commentaires. Notre retour chiffré sur la modération opérée au premier trimestre 2021 pour France Médias Monde éclaire sur les possibilités.
Les conversations en ligne prennent une part toujours plus importante dans l'animation du web social. En 2020, l'activité d'Atchik a ainsi augmenté de 40%. Dans leur étude auprès de mille professionnels de la communication et du marketing, Talkwalker et Trustpilot rapportent également que "82% des participants estiment que la pandémie a bouleversé leur perception des conversations des consommateurs". Avant même d'engager la conversation dans les commentaires sur les réseaux sociaux, ce qui s'avère déterminant, la qualité de l'activité de modération va permettre de rendre toute leur valeur, tout leur intérêt aux espaces de discussion... Mais aussi de détecter tous les contenus de valeur.
Prenons le cas de France Médias Monde, groupe chargé de l'audiovisuel international français, pour qui nous assurons la modération sur les réseaux sociaux. RFI et France 24 par exemple font partie de France Médias Monde. Ces canaux, en plusieurs langues et sur divers réseaux sociaux, représentent des volumes considérables de messages qui parviennent de toute la francophonie et, au-delà, du monde entier.
Comment, dès lors, faire face tout en assurant une qualité de service à tout instant ? Nos équipes, en s'appuyant sur une solution logicielle propriétaire :
🟢 Ecoutent, analysent et traitent chaque jour des milliers de contenus...
🟢 En tirent de précieuses informations, restituées aux rédactions de FRANCE 24 et RFI - Radio France Internationale.
Découvrez ci-dessous notre rapport chiffré portant sur l'activité des trois premiers mois de l'année 2021 :
Et pour aller plus loin : retrouvez notre livre blanc consacré à la valorisation des espaces de discussion des médias.
C'est LE sujet qui agite la planète ces derniers jours : le coronavirus est dans tous les JT, tous les débats et toutes les discussions en ligne, des réseaux sociaux aux forums spécialisés en passant par les mails. Et qui dit suremballement dit, forcément, rumeurs et exagération avec, aux premières loges, les modérateurs comme guichet d'accueil de ces urgences numériques... A un point que l'on n'imagine pas forcément !
Dire que le coronavirus est un sujet viral en ce moment relève d'abord du mauvais jeu de mots - et du SEO élémentaire pour un tel billet mais comme ça, au moins, c'est fait 😘 - mais témoigne d'un véritable emballement constaté partout : sur Twitter, plus de 10 millions de messages ont utilisé le dièse #coronavirus et le chiffre ne cesse de croître, au gré des annonces de découvertes de cas. En France, le mot a émergé un peu partout et, forcément, nous l'avons largement vu passer dans tous les commentaires modérés, sites de presse en particulier.
Premiers symptômes ? De plus en plus de commentaires évoquant, justement, ces symptômes qui seraient liés à la maladie dont tout le monde parle. Car l'angoisse se joue là aussi : la viralité d'un sujet aussi angoissant entraîne systématiquement l'apparition de nombreux inquiets et autres hypocondriaques avec lesquels il faut, en tant que modérateur, savoir composer. Exemple ici à la suite d'une vidéo Youtube du Parisien sur le Coronavirus :
Or tout l'enjeu est là pour les modérateurs :
Ces questions se posent au cas par cas, bien évidemment ; et c'est là que le modérateur va puiser dans son expérience, d'une part en modération de trolls (forcément), d'autre part en détection de cas sensibles ou de crise et en pharmacovigilance.
Ici, par exemple, pas d'affolement :
Dans d'autres cas que nous ne montrerons pas, la véracité des descriptions implique un tout autre type de réaction : évaluation du risque, prise de contact en privé, signalement... Certains cas relèvent de la santé publique.
Nous n'avons, pour l'instant, eu que ce type de cas : mais en toute connaissance de cause, lors d'une période critique comme celles suivant les attentats, deux phénomènes modifient drastiquement le travail du modérateur :
D'où l'intérêt pour nous, bien évidemment, de suivre toutes les tendances afin d'anticiper au mieux les besoins et d'adapter les ressources :
Cette détection, nous l'assurons 24/7J pour nos clients afin de leur signaler et remonter tous les éléments de valeur issus des commentaires sur les réseaux sociaux et les espaces conversationnels, qu'il s'agisse de témoignages, de tendances d'opinion ou de consommation mais aussi de limitation ou de prévention des risques. Et dans des cas comme celui du coronavirus, tous ces indicateurs s'avèrent aussi bénéfiques à nos clients qu'à nos propres besoins organisationnels afin de garantir le meilleur service, même en cas de fièvre de la twittosphère ou du reste des réseaux sociaux !
Après des mois de consolidation des éléments, Atchik publie un livre blanc destiné à accompagner les médias dans une meilleure prise en compte des contenus générés par les internautes sur leurs sites et leurs réseaux sociaux.
rôle citoyen en tant que média en soignant mieux ces espaces de discussion et en interagissant avec les communautés ? Ce sont les axes auxquels s’est intéressé Steve Bonet, journaliste de formation, aujourd’hui directeur Communication et Marketing chez Atchik, tout au long de ce travail préfacé par Frédéric Guitton, ex-community manager du Parisien aujourd’hui à la NRCO.
Bonne lecture !