Découvrez Atchik-Booost.com, notre solution pour optimiser la visibilité des petites et moyennes entreprises

janvier 19, 2022

Désormais paru au Journal Officiel, le décret (n°2022-32) visant à mieux lutter contre la "haine en ligne" impose de nouvelles obligations - de modération entre autres - aux plateformes hébergeant des contenus d'internautes tels que des commentaires. Concrètement, que vont changer ces nouvelles dispositions et pourront-elles avoir un impact sur votre gestion de la présence en ligne ? Haine en ligne, Arcom, pression sur les GAFAM... C'est le moment de faire le point.

 

Haine en ligne, ARCOM : tous concernés par la modération de contenu ?

La lutte contre les contenus haineux et illicites, qui passe par la modération, se précise. Rôle de l'ARCOM, durée de validité de l'application du texte, seuils : les contours apparaissent plus nettement et, avec eux, les possibles impacts sur la gestion des conversations en ligne.

 

Un décret "d'attente" avant le Digital Services Act

Commençons par le commencement.

Ces dispositifs de lutte contre la haine en ligne (les "contenus en ligne haineux et illicites") ont vocation à laisser la place, une fois la transposition assurée en droit français, au Digital Services Act à l'échelle européenne. Véritable travail de création d'un environnement en ligne européen sans passe-droit, le texte permettra d'encadrer les très grands acteurs des internets et du web social (comprenez : les GAFAM) en garantissant la protection des utilisateurs.

Ainsi, le décret est appelé à devenir caduc une fois le DSA en vigueur, au plus tard le 31 décembre 2023.

 

Deux palliers de lutte contre la haine en ligne pour les plateformes

Si le décret vise assez clairement les GAFAM, il se veut un minimum graduel et fait donc la différence entre des acteurs importants et des acteurs décrits comme "systémiques".

 

Au-delà de 10 millions de visiteurs uniques mensuels

Comme l'explique clairement le communiqué du ministère de la Culture :

Les opérateurs dont l’audience dépasse un seuil de 10 millions de visiteurs uniques mensuels seront soumis à un socle d’obligations portant notamment sur la coopération avec les services répressifs, sur la mise en place de dispositifs de notification des contenus haineux illicites et de traitement de ces notifications, et sur la transparence concernant la modération de ces contenus.

Or, la "transparence concernant la modération de ces contenus" nous intéresse particulièrement. D'abord, parce qu'elle englobe largement tous les UGC, les contenus générés par les utilisateurs. Ensuite, parce qu'elle pose des questions pratiques. Comment va-t-elle se mettre en place ? Sur quels critères ? Nous y reviendrons.

 

Au-delà de 15 millions de visiteurs uniques mensuels : les "acteurs de taille systémique"

Le texte prévoit un deuxième pallier de mesures. Destiné aux plateformes telles que les réseaux sociaux dominants et grands hébergeurs d'avis en ligne, il se veut plus structurant.

Ces acteurs disposent d'une taille reconnue comme "systémique". A ce titre, ils se verront appliquer une couche supplémentaire d'obligation, plus ciblée encore et plus volontariste. Concrètement, "ils devront évaluer les risques de dissémination de contenus haineux illicites sur leurs services et prendre des mesures pour lutter contre cette dissémination, tout en veillant à préserver la liberté d’expression".

Qui sera évidemment concerné ? TikTok, Facebook (avec Whatsapp et Instagram), Twitter, Google, Snapchat, LinkedIn, Twitch... Mais aussi Netflix, Amazon, CDiscount, AliBaba, Pinterest, Reddit ou Orange.
Et puis, il y a les moins évidents. Ceux qui l'on ne range pas parmi les plateformes. Et si l'on en croit le dernier rapport Médiamétrie la SNCF, Doctolib ou Solocal Group dépassent bien les 15 millions de visiteurs par mois. Au total, les 50 plus grands groupes identifiés par médiamétrie franchissent ce seuil.

Bien. Mais... Comment fixer le cadre d'évaluation et faire en sorte que chacun applique de manière harmonieuse ces principes ? C'est là qu'entre en scène l'ARCOM, nouvelle autorité de régulation.

 

L'ARCOM, nouvelle autorité de lutte contre la haine en ligne

logo de l'Arcom

L'Autorité de régulation de la communication audiovisuelle et numérique, ou ARCOM, s'impose comme le nouvel acteur public de régulation. Né de la fusion entre le CSA et Hadopi, l'organisme se prépare donc à agir comme un "CSA des internets". Il permet ainsi à la puissance publique de s'appliquer sur un territoire jusqu'ici délicat, sans juste milieu entre action judiciaire et modération.

Et en ce qui concerne ce décret, c'est donc bien à l'ARCOM que revient le suivi, l'arbitrage... Et les éventuelles sanctions en cas d'abus des plateformes, qu'elles soient de streaming ou réseaux sociaux.

Ainsi, L'ARCOM peut mettre en demeure les sites de se conformer, sous peine de sanctions économiques. Et ces dernières peuvent s'élever jusqu'à "1% du chiffre d'affaires mondial total" des plateformes. De quoi inciter les GAFAM à revoir leurs dispositifs existants.

 

Mais concrètement, pour vous et la modération de vos espaces ?

Concrètement ? Si les plateformes sont tenues à une meilleures régulation des contenus et conversations en ligne qu'elles hébergent, il n'est pas dit que les options offertes aux propriétaires de pages ou de comptes d'entreprises pour faciliter la modération des contenus ne s'en trouve modifiées.

Vous pourrez donc être concernés à deux titres :

  • Si votre groupe atteint 10 millions de visites par mois, voire 15 millions pour le pallier suivant ;
  • Si votre marque, entreprise ou entité dispose d'un compte social à l'audience significative sur l'un de ces sites.

 

Dans le deuxième cas, il vous faudra donc vous équiper en conséquence, comme maintenant. Et, pourquoi pas, externaliser la modération voire l'animation des espaces pour en tirer le meilleur parti.

En revanche, il se pourrait bien que certains profils se fassent plus rares dans vos espaces, à l'instar des trolls politiques, des faux-comptes de pression... voire des profils faisant l'apologie du terrorisme, comme on en croise hélas sur certains espaces. Ces éléments particulièrement sensibles, si l'on suit la logique juridique du décret, devraient se voir opposer le nouveau travail des plateformes pour lutter contre la haine en ligne.

Pour l'instant, les effets à attendre de ces nouvelles dispositions restent nécessairement flous. Il nous faudra attendre l'application des textes pour en juger. Et juger du traitement de la haine en ligne par l'ARCOM. Toutefois, comptez sur nous pour y veiller et, le cas échéant, vous faire part de modifications ou d'ajustements qui pourraient survenir dans les prochaines semaines.

En attendant... La modération aux deux niveaux que sont les plateformes et les comptes sociaux reste centrale dans la lutte contre la haine en ligne. Et pour vos espaces, rien ne vaut l'activité de modération que vous engagez pour protéger votre e-réputation : sur cet aspect-là, vos choix restent déterminants !

 
Steve

Les modérateurs en ont fait leur meilleure alliée. C'est en presque devenu leur bible. Oui, nous parlons bien de la charte de modération, ce document qui édicte les règles relatives aux conversations en ligne sur un lieu d’échanges comme les forums, les blogs et les réseaux sociaux. Mais concrètement, c’est quoi une charte de modération ? On vous explique ⬇️

 

Bannière article charte de modération

 

Définition de la charte de modération

En tant que document de référence, la charte de modération cadre les discussions d’un espace d’échanges en ligne. Elle justifie aussi bien l’acceptation de certains contenus que leur suppression, par exemple en cas d’avis en ligne injurieux ou de commentaires contraires à vos règles d’utilisation. 

Elle permet aux utilisateurs d’un forum, d’une page Facebook ou d’un compte Instagram de prendre connaissance des termes et propos tolérés. Si un contenu (message, vidéo, image…) ne rentre pas dans les critères d’une charte de bonne conduite préalablement établie, ce dernier sera donc filtré par le modérateur du lieu d’échanges, forum ou réseau social.

 

 

Dans quelle mesure utilise-t-on une charte de modération ?

Créer une charte de modération revient à cadrer les contenus publiés sur son forum, son blog ou sur son réseau social. Sans cette dernière, toute suppression de commentaires qui ne rentrerait pas dans le cadre d’une charte de modération clairement éditée serait injustifiée et pourrait surprendre les contributeurs… Pas forcément un bon moyen de fidéliser les lecteurs de son blog ou de son média en ligne par exemple.

Éditer une charte de modération revient également à protéger son image. Cela permet de pouvoir supprimer tout commentaire qui viendrait nuire à sa propre image, à l’image de son entreprise et même à l’image d’autrui. Il s'agit des CGU, ou Conditions Générales d'Utilisation.

La charte de modération permet aussi et surtout aux modérateurs de savoir ce qui peut être publié et ce qui peut être refusé. À savoir que, selon les préférences, un commentaire peut être publié a priori ou a posteriori, ce qui permet aux modérateurs de pouvoir prendre le temps de vérifier la conformité du fond et de la forme d’un commentaire. Nous en avions d’ailleurs parlé dans un précédent billet de blog.

 

De quoi est composée une charte de modération ?

La charte de modération est composée de plusieurs rubriques : les règles de publication d’un commentaire, les contenus non tolérés par l’espace d’échanges et les contenus illicites au vu de la loi.

 

Les règles de publication

Ces premières lignes ont pour but d’indiquer à ses utilisateurs comment publier un commentaire conforme à la charte de modération. Parmi ces règles, on peut notamment retrouver les conditions suivantes :

  • Relire son commentaire avant de le publier,
  • S’exprimer clairement et de manière objective,
  • Ne pas écrire l’intégralité de son commentaire en majuscules,
  • Ne pas rédiger un commentaire sous l’emprise de la colère.

 

D’autres règles peuvent venir s’ajouter à cette liste non exhaustive. Tout dépend de l’objectif de votre charte de modération. Souhaitez-vous que votre lieu d’échanges soit ouvert à tous ou souhaitez-vous avoir un minimum d’autorité sur les contenus publiés ? Si oui, quels sont les types de commentaires que vous souhaitez laisser en public ? C’est en répondant à ces questions que vous pourrez établir une liste de règles et d’indications pour vos utilisateurs.

 

Pour en savoir plus, n’hésitez pas à consulter notre propre charte de modération juste ici 😉

 

Les contenus non tolérés

Pour réguler les échanges et garantir un lieu de discussion sain, des propos et thématiques peuvent ne pas être publiés s’ils ne s’inscrivent pas dans la charte de modération. Cela peut concerner par exemple la publicité, la publication de liens, les scams, les attaques directes envers un contributeur, la vulgarité, les insultes… La liste peut être plus ou moins longue selon le but de votre charte de modération. Par exemple voici la liste des contenus non tolérés sur notre blog :

  • Les messages publicitaires,
  • Les petites annonces,
  • Les messages contenant des coordonnées téléphoniques, une adresse e-mail ou une adresse postale personnelles : seules les coordonnées professionnelles pourront être laissées en ligne,
  • Les liens vers des sites externes sans rapport avec l’objet du contenu ayant suscité le commentaire.

 

Renvoi vers article top 10 des commentaires qui ne passent jamais

 

Les contenus illicites

Un contenu illicite est bien différent d’un contenu non toléré. La subtilité réside dans la légalité d’un propos. Voyons ça sous un autre angle : des propos ne peuvent être tenus aussi bien dans l’espace public que sur le web. Certains internautes ont malheureusement souvent tendance à l’oublier, mais on ne peut pas tout dire sur Internet. Voici une liste non-exhaustive des contenus illicites :

  • La diffusion de fausses informations et rumeurs non avérées (fake news, infox),
  • Le racisme,
  • La xénophobie,
  • La diffamation,
  • L’homophobie,
  • Le sexisme,
  • La pédophilie,
  • L'incitation à la consommation de drogues, alcool, tabac,
  • L'apologie du terrorisme,
  • La négation des crimes contre l'humanité...

 

À savoir que certains de ces propos illicites sont supprimés par les modérateurs et signalés sur la plateforme du ministère de l’Intérieur Pharos.

 

Pharos, la plateforme de signalement des contenus suspects ou illicites du ministère de l'Intérieur

Source : interieur.gouv.fr

 

Comment créer une charte de modération ?

Vous ne pourrez pas créer une bonne charte de modération si vous ne définissez pas un objectif à cette dernière. Souhaitez-vous protéger votre image ou l’image de votre entreprise ? Souhaitez-vous faire de votre espace d’échanges un lieu ouvert à tous types de propos légaux ou souhaitez-vous filtrer certains contenus ?

 

Nous pouvons vous aider à répondre à ces questions pour créer une charte de modération claire et explicite. En tant qu’acteur historique de la modération de contenus en ligne, nous avons eu l’occasion d’en pratiquer ou d’en créer plus d’une ! N’hésitez pas à prendre contact avec nous pour que nous puissions vous accompagner dans votre stratégie de modération 😉

 

 

Atchik


Lokus, l'outil de gestion des conversations et de modérations qui s'appuie sur une intelligence artificielle conversationnelle au service d'un savoir-faire

Deux ans de développement auront permis d'aboutir à Lokus, le nouvel outil de modération et gestion des conversations en ligne d'Atchik. Puissant, fluide, plus précis dans la détection, le successeur de Safescreen Dashboard fait ressortir toute la valeur des conversations en ligne. Sur toutes les plateformes. Un outil précieux pour une entreprise de modération, de gestion et d'analyse des commentaires comme Atchik mettant la valorisation des conversations en ligne au coeur de son intervention.



 
Un paradoxe perdure du côté des réseaux sociaux. Alors que le côté social devrait se trouver au centre des préoccupations, Facebook, Youtube, LinkedIn et consorts ne considèrent toujours que trop peu les commentaires en ligne, dans leur modération en tant que plateformes comme dans leurs possibilités de gestion pour les administrateurs de pages et les modérateurs. Quand elles existent, les interfaces de type business manager manquent d'efficacité, d'ergonomie ou tout simplement de données utiles. Or, pour une société comme la nôtre proposant de la modération, du community management ou de la relation client digitale, l'exigence de qualité requiert des outils de gestion des conversation plus complets et mieux adaptés.

 
C'est pour répondre à ce besoin que les développeurs d'Atchik ont mis au point Lokus, nouvel outil de modération de commentaires, animation, réponse et analyse des conversations en ligne. Bien sûr, l'outil permet de prendre en charge de volumes de messages très importants... Mais, surtout, il met l'intelligence artificielle au service du savoir-faire des équipes. Comment ? En permettant un niveau de tri, de précision de traitement et de réaction inégalé.

Interface de Lokus, outil de modération et gestion des conversations en ligne
L'interface d'accueil de l'outil de modération, animation et gestion des commentaires Lokus

Lokus : un aiguillage précis, évolutif et sur-mesure des commentaires

Grâce à son système de pré-filtrage, basé sur la sémantique et une maîtrise lexicale hybride entre intelligence artificielle et retours d'expérience, Lokus permet aux modérateurs, community managers et chargés de veille de se concentrer sur l'essentiel : l'analyse et le traitement personnalisé des avis, commentaires et conversations pour :

  • Appréhender des millions de contenus,
  • Trier et rediriger efficacement les commentaires,
  • Détecter rapidement les risques et menaces, faciliter les signalements et lutter efficacement contre la haine en ligne,
  • Catégoriser les avis et commentaires pour en tirer des informations-clés,
  • Identifier des témoignages, contributeurs d'intérêt et influenceurs,
  • Déclencher la bonne action de modération, animation et réponse selon le contexte et l'auteur du message.
Lokus, un outil de modération des commentaires et gestion des conversations qui tient compte de vos priorités de valorisation des contenus.

 
Les tentatives de Google, Facebook ou Instagram l'ont montré : une machine ne peut pas entièrement remplacer un modérateur. Elle est, en revanche, un outil de modération et d'aiguillage très précieux, voire indispensable aujourd'hui, dans un contexte de demandes d'interactions croissantes et de préoccupations liées à la haine en ligne.

Des institutions comme l'Elysée ou la CNAM aux médias comme RTL ou France 24, en passant par Carrefour ou Bjorg entre autres références, Atchik s'est fait connaître ces dernières années à travers ses services de modération, de veille, de conseil, d'animation et de relation client en ligne . Aujourd'hui, Lokus permet de passer un seuil inédit dans la gestion des conversations. En rendant rapidement disponibles les enseignements-clés et la plus-value du traitement du web social tout en maîtrisant les coûts, quelle que soit la situation.

Quelques fonctionnalités de Lokus

– Signalement rapide aux modérateurs des éléments à risque (menaces, propos suicidaires…) ;

– Aiguillage des messages basé sur une intelligence artificielle et un savoir-faire reconnu ;

– Détection améliorée de tendances, d’évolutions de thématiques et d’émergence de signaux faibles dans les conversations ;

– Détection par Lokus des contributeurs d’intérêt (youtubeurs, contributeurs réguliers, influenceurs, élus…) pour personnalisation de la réponse.

Un outil de modération et réponse aux capacités d'analyse démultipliées

La modération constitue le premier niveau de veille sur les comptes sociaux. Quoi de mieux, donc, qu'un outil de gestion des conversations comme Lokus pour détecter efficacement les tendances et éléments de valeur ?

Avec une capacité de recherche décuplée, Lokus permet de rendre compte du nombre d'infox circulant sur un ou plusieurs comptes selon leur type, de témoigner pour les médias de l'évolution du nombre de signalement de "coquilles" dans les commentaires ou encore d'approfondir l'analyse sémantique autour d'un thème abordé sous une publication.

Un outil de modération des commentaires et gestion des conversations doté d'une intelligence artificielle au service d'une analyse toujours plus fine

 
D'abord, il permet la lutte efficace contre la haine en ligne. Ensuite, il met en valeur les internautes les plus constructifs pour vous. Il permet, dans la foulée, de mener la bonne action sur le bon contenu. Enfin, il facilite la restitution de toutes les informations-clés transitant par les avis et commentaires. Lokus a été construit pour servir la philosophie d'intervention qui guide les équipes d'Atchik depuis toujours.
Pour libérer le potentiel des conversations en ligne.


 
Contactez-nous pour obtenir une présentation plus détaillée.

Certains commentaires vous choquent sur les réseaux sociaux ? S'ils ne proviennent pas de discussions privées ou entre amis, peut-être émanent-ils de pages qui manquent de modérateurs... Car sous les articles de médias ou dans les espaces de commentaires de comptes sociaux bien administrés, les équipes de modération assurent la qualité des échanges... Et leur caractère licite. Il y a donc des commentaires que, sous certains espaces, vous ne devriez (presque) jamais voir : on en fait le tour ici.

 


 
Pour vous, les internets forment une jungle où le danger rôde partout ? Si c'est l'impression que beaucoup d'échanges peuvent donner, la haine en ligne ne représente que 10% des contenus des conversations du web social... Et sur tous les comptes sociaux bien administrés, des équipes de modérateurs assurent la pertinence des commentaires. Car oui, en-dehors du travail "global" effectué par Facebook, Twitter, Instagram et consorts, des sociétés de modération comme la nôtre garantissent la conformité des commentaires à la loi et à la charte de modération. Mais alors, quels commentaires, lorsqu'un espace bénéficie d'une modération de qualité, ne se retrouvent jamais en ligne ? On vous a retenu les dix cas les plus emblématiques.

 

Les insultes

Cela peut paraître évident, non ? Qu'il s'agisse de propos insultants ou injurieux envers la personne citée dans un post ou article, envers l'auteur / la rédaction ou envers un autre internaute, l'agression verbale constitue déjà en soi... Une agression.

Donc, c'est non.

Bien sûr, dans des cas de chambrage ou d'ironie, dans des contextes bien particuliers, "modération" va rimer avec "pondération" pour garder de la vie dans les contributions : et c'est bien pour cela que l'arbitrage humain reste indispensable. Mais les commentaires ayant pour seul but une agression, seule ou avec effet cumulatif, ne sauraient rester en ligne.

 

Les sobriquets

Même chose : si une personne pense que l'ajout de "Méchancon", "le président Macrotte" ou "Jean Casse-Tête" sert son propos... Il se trompe. Le sobriquet, qui vise à ridiculiser la personne en déformant son nom, relève de l'injure.

Très souvent, le sobriquet vient en renfort lorsque les arguments viennent à manquer... En clair, une contribution qui parle des "merdias", des "journalopes" ou des "politichiens" manque, la plupart du temps, de fond. Si vous tombez dessus, c'est assez facile à vérifier 😅

 

Les propos racistes, xénophobes, sexistes, antisémites

Faut-il vraiment préciser pourquoi ? Toute discimination d'une personne ou d'un groupe de personnes sur la base de son origine, de son orientation sexuelle, de ses croyances... Constitue un délit au regard de la loi.

 

 

Les coordonnées et données personnelles

Plutôt logique, non ? Ici, le modérateur protège l'identité et les données personnelles de tout un chacun, qu'il s'agisse d'une personne dont les coordonnées sont rendues publiques ou... De l'internaute en personne. Il n'est pas rare, en effet, de trouver encore des gens laissant leur numéro de téléphone, leur adresse e-mail voire... Leur numéro de carte bancaire (sic) dans les commentaires en ligne.

 

Le multipostage (flood)

Lire 50 fois le même message ? Ce n'est agréable pour personne. Pour éviter cet engorgement, qui ressemble à du tapage, les modérateurs et outils paramétrés en conséquence vont filtrer les doublons, triplons, centuplons...

 

Les menaces et mises en danger de personnes

Là encore, la modération joue un rôle de protection. Confrontée à un message sensible, elle se doit moralement et légalement de réagir, pour ne pas laisser de situation de non-assistance à personne en danger.

Si les menaces interpersonnelles avec mise en danger de la vie d'autrui existent, les pensées suicidaires font malheureusement partie, elles aussi, des contributions appréhendées par les modérateurs... Sauf que dans ce cas précis, mieux vaut parfois laisser le message en ligne afin que la personne en détresse puisse recevoir du soutien de la communauté. Tout en procédant, bien sûr, aux signalements nécessaires à la prise en charge de la personne.

 

Les activités illicites

Là encore, il paraît assez évident de ne pas permettre aux trafics en tous genres et aux réseaux criminels de prospérer, à quelque niveau que ce soit. Et si, de plus en plus, nous constatons une visibilité des trafics de drogue sur les réseaux sociaux, les sociétés de modération comme la nôtre n'y peuvent rien puisque ces messages ne sont pas laissés en commentaires de posts ou d'articles de comptes sur lesquels nous intervenons.

 

Les spams / scams / marabouts

Toutes les arnaques contenues dans les commentaires connaissent le même sort : dehors. Si l'on vous propose le "retour de l'être aimé", le "gain d'argent facile" ou la "réparation à distance de votre ordinateur par la pensée"... C'est que vous ne vous trouvez pas sur un espace (bien) modéré 😅

 

Les imitations de pages /comptes officiels

Imaginons : en parcourant tranquillement les commentaires sous le dernier post Instagram de Lacoste, un obscur compte Lacoste_ooficiel propose des polos à moitié prix... Douteux, non ? On peut imaginer que la marque n'aura pas tellement envie de laisser faire.

Variante : un titre de presse, qui vit de ses abonnements, impose une limite d'accès gratuit, au-delà de laquelle il faudra payer pour consulter les articles. On imagine facilement que le commentaire qui explique comment contourner le paywall n'aura pas sa place, n'est-ce pas...
Idem pour le lien de téléchargement pirate d'un film sur un compte de VOD etc.

 

La diffamation et la calomnie

Là encore, la loi s'applique. Dans l'espace public, la diffamation n'a pas sa place, portant atteinte à l'honneur. Autant dire qu'un été comme celui-ci, cumulant Euro de football, Tour de France et Jeux Olympiques ne laisse pas trop respirer les modérateurs entre deux affirmations de dopage sans fondement juridique, par exemple... Et on ne vous raconte pas ce qu'on trouve dans les propos complotistes (enfin si, on vous raconte).

 

Bonus : les messages en majuscules

Bon, il arrive que certaines chartes de modération les autorisent mais comme chacun sait, PARLER EN MAJUSCULES REVIENT A CRIER ET C'EST TRES DESAGREABLE. En général... Un message a plus de chances de passer quand son auteur déverrouille le capslock 😉

 

Steve
 

Bouton renvoyant vers la page LinkedIn d'Atchik

On ne peut plus ignorer Twitch dans l’environnement des réseaux sociaux en 2021. Entre streams quotidiens, événements IRL et politiques… Le paysage ne fait que s’élargir, amenant de nouvelles audiences sur la plateforme et donc de plus grands flux de conversations. Plus que jamais, le besoin de modération se fait sentir pour garder les espaces de discussion bienveillants et maîtrisés. Mais d’ailleurs, ça ressemble à quoi la modération sur Twitch ?
On vous explique 😉

 

 

De la modération en temps réel

Sur Twitch, pas question de se prélasser quand on est modérateur. Basé sur le protocole IRC (Internet Relay Chat), le chat sur Twitch entre utilisateurs se fait en temps réel et la modération se pratique par défauta posteriori... C’est-à-dire après la publication d’un message. Ainsi, la modération sur Twitch doit faire preuve de réactivité pour ne pas laisser passer des messages qui n’ont pas leur place dans le chat, conformément à la charte de modération

Pas d’a priori du tout alors ? Pas tout à fait… Car on peut tout de même ajouter volontairement un peu de latence entre la réception d’un message et la décision de modération, ce qui peut s’avérer utile pour pouvoir gérer le volume entrant plus facilement.

Si le flux reste trop important, on peut toujours configurer l’AutoMod, autrement dit la modération “automatique”, qui maintient les messages dans une file d’attente avant leur approbation et leur publication dans le chat. Cinq niveaux de filtres entrent en jeu, basés sur la discrimination, les contenus sexuels, l’agressivité et la vulgarité :

  • Niveau 0 : désactivé
  • Niveau 1 : filtres sur la discrimination
  • Niveau 2 : filtres sur la discrimination, les contenus sexuels et un accent sur l’agressivité
  • Niveau 3 : filtres renforcés sur la discrimination, les contenus sexuels et l’agressivité
  • Niveau 4 : filtres renforcés sur tous les critères, y compris les injures

 

Modérer et animer, un même service sur le chat

Mais il n’est jamais de trop de rappeler qu’un modérateur sur Twitch n’est pas là uniquement pour accepter et refuser des messages. En effet, les modérateurs tels que nous les connaissons aujourd’hui ont la double casquette de modérateur et animateur (c’est d’ailleurs ce que nous évangélisons chez Atchik). Il n’est plus rare de voir des modérateurs échanger avec les viewers lors d’un live ; c’est d’ailleurs là que se trouve tout l’intérêt d’un live Twitch : l’interaction entre le streamer, les viewers et les modérateurs.

 

 

De ce fait, que l’on soit modérateur, animateur ou les deux, la modération active est recommandée pour en tirer tout le potentiel. Là est la clé d’un live Twitch réussi !

Si vous l’aviez manqué, nous en parlions dans un article sur la pertinence de Twitch dans sa stratégie digitale 😉

 

Renvoi vers l'article "Twitch : Pourquoi l'inclure dans sa stratégie digitale ?" d'Atchik

 

Comment modérer sur Twitch ?

L’interface de modération de Twitch

Pour modérer sur Twitch, plusieurs solutions :

  • Modérer le chat directement sur le live d’un streamer
  • Passer par l’interface de modération créée par Twitch

Pour avoir testé les deux modes, il est bien entendu plus pratique de passer par l’interface de modération qui est plus aérée et plus complète que directement par le live. Sur cette interface, on retrouve plusieurs fenêtres :

  • La diffusion en temps réel
  • Un historique des actions de modération
  • La liste des messages en attente d’approbation (Automod)
  • Le chat
  • Une liste des viewers du chat
  • Les actions de chaîne (Emote-only, followers-only…)
  • La liste des modérateurs actifs
  • Le fil d’actualité, qui permet de voir qui s’est abonné à la chaîne
  • Les demandes de débannissement (unban)
  • Les “Whispers”, pour échanger en privé avec un utilisateur du chat

 

 

On peut l'affirmer : il est bien plus pratique pour un modérateur Twitch d’avoir une vue d’ensemble sur les messages envoyés dans le chat pour suivre plus facilement le fil de discussion. En tout cas… c’est ce que nous conseillons ! Les messages peuvent vite défiler mais pas de panique ! On peut mettre le chat en pause pour pouvoir modérer sans difficulté, en passant simplement sa souris sur la fenêtre de chat.

Sachez également que l’interface de modération est personnalisable à souhait. Il suffit de glisser-déposer un élément dans l’interface et de le positionner où vous le souhaitez. Simple comme bonjour.

Vous retrouverez l’interface de modération d’une chaîne Twitch juste ici. Vous pouvez également modérer d’autres chaînes si vous bénéficiez de leurs droits de modération avec votre compte.

 

Bouton renvoyant vers la page LinkedIn d'Atchik

 

Les commandes de base pour modérer

Pour modérer avec plus d’efficacité, voici quelques commandes qui peuvent faciliter la vie des modérateurs sur Twitch.

 

 

Bannir un viewer

Bannissement temporaire : /timeout {identifiant} [secondes]

Bannissement : /ban {identifiant}

Annuler un bannissement : /unban {identifiant}

 

Ralentir la cadence du chat

Mode lent (Slow mode) : /slow {secondes}

Désactiver le mode lent : /slowoff

 

Restreindre les échanges aux emotes, followers et abonnés

Mode “Emote-only” : /emoteonly

Désactiver le mode “Emote-only” : /emoteonlyoff

Mode “followers-only” : /followers {temps}

Par exemple, pour limiter l’accès au chat aux personnes qui se sont abonnées il y a deux mois : /followers 2mo

Désactiver le mode “Followers only” : /followersoff

Mode “Sub-only” : /subscribers

Désactiver le mode “Sub-only” : /subscribersoff

 

Autres commandes utiles

Ajouter un modérateur : /mod {utilisateur}

Effacer l’historique du chat : /clear

Chat unique (interdit aux utilisateurs de publier des messages non uniques avec un minimum de 9 caractères, pas de c/c, pas de symboles unicode) : /uniquechat

Désactiver le chat unique : /uniquechatoff

Lancer une publicité pendant le stream : /commercial {30|60|90|120|150|180}

Héberger une autre chaîne sur sa chaîne : /host {chaîne}

Arrêter l’hébergement : /unhost

 

Effectuer une repasse du chat avec la post-modération

Vous pouvez passer en revue les messages envoyés pendant une diffusion, une fois celle-ci terminée, en vous rendant sur le replay d’un live. Attention, l’interface de modération proposée par Twitch ne le permet pas : il faut vous rendre sur le replay comme si vous regardiez votre diffusion à nouveau. Prenez également en compte le fait que chaque rediffusion reste disponible 14 jours après le direct, pas possible donc de faire de la post-modération (ou post-mod, comme on dit par chez nous) à J+15 puisque le replay sera automatiquement supprimé par Twitch.

Seule limite à cette fonctionnalité : si vous décidez de supprimer un message envoyé par un viewer, ce message disparaîtra du chat, mais si vous avez intégré une chatbox sur votre live (c’est-à-dire que le chat est visible sur la plateforme et sur la vidéo de votre diffusion), le message sera tout de même affiché. Il faut donc redoubler de vigilance à chaque instant lorsqu’on est modérateur sur Twitch.

 

Être modérateur et faire une veille sur Twitch

Oui, vous avez bien lu, on peut faire sa propre veille sur Twitch, une veille rendue possible notamment grâce à la disponibilité des replays pendant 14 jours mais aussi grâce aux chats qui y sont associés. Durant cette période, vous pouvez donc voir et revoir une diffusion, vérifier les messages postés et les analyser. Pour éviter de regarder des heures et des heures de live, vous avez la possibilité de vous baser sur des moments mis en valeur par la communauté d’un streamer grâce aux clips postés sur une chaîne. Et bonne nouvelle, les clips, eux, restent accessibles après expiration du replay ! Vous pouvez donc les revoir et les partager à souhait. De leur côté, les messages postés lors d’un live ont leur propre valeur et rentrent dans le cadre d’une veille, comme les témoignages par exemple.

Néanmoins, les fonctionnalités de Twitch en matière de veille sont assez limitées à l’heure actuelle. Le moteur de recherche ne permet que de trouver des chaînes, des diffusions et des clips. On peut cependant affiner les résultats avec la recherche de hashtags si ces derniers sont massivement utilisés. Un besoin de veille sur Twitch ? N'hésitez pas à nous en parler directement 😉

 

Valentin
Chef de projet "Présence en ligne"

 

Bouton renvoyant vers la page LinkedIn d'Atchik


juin 2, 2021
Brice Le Louvetel

Pandémie, confinement, vaccination, élections présidentielles, faits divers sont autant de sujets sur lesquels les Français donnent leur avis sur les différents médias sociaux. Pour en garantir la tenue, ces conversations sollicitent un service de modération des commentaires des médias. Dans cette offre de réseaux sociaux et plateformes, Facebook reste encore pour la majorité des journaux le canal privilégié des lecteurs pour commenter, discuter et débattre dans la (plus ou moins) bonne humeur. Dans ce contexte, quelles stratégies les rédactions peuvent-elles mettre en place pour assurer la propreté de leurs réseaux sociaux, tout en préservant la liberté d’expression, les échanges cordiaux et constructifs et tirer profit des commentaires à forte valeur ajoutée pouvant s’y trouver ?

Image d'illustration de la modération de commentaires pour les médias

Quels que soient les objectifs poursuivis, les journaux doivent avant tout penser à la protection de leur image de marque. Et pour cela, ils doivent mettre en place une stratégie de modération efficace. Or, face à des commentaires pouvant parfois représenter plusieurs millions de messages par mois sur les différentes plateformes, plusieurs options se présentent pour assurer ce travail de modération. Ils peuvent, par exemple, laisser les journalistes assurer eux-mêmes cette mission, la déléguer aux community managers, recruter des modérateurs ou, dans une véritable optique de professionnalisation, faire appel à une société de modération dont c’est le métier.

 

La stratégie de modération, premier facteur déterminant

Premier constat : les journalistes et les CM, déjà très occupés, ont peu de marge pour assurer la modération. Composer une équipe de modérateurs pouvant travailler tous les jours et 24h/24 n’est pas non plus toujours chose facile. Disposer du recul nécessaire et de la capacité à s’adapter à de fortes variations de volumes non plus.

Pour toutes ces raisons, les rédactions privilégient le plus régulièrement l’externalisation à une société de modération. Elles peuvent compter, pour cela, sur des entreprises comme Atchik pour les accompagner et protéger leur image.

Véritable décision stratégique, l’organisation de la modération des commentaires des médias conditionne son efficacité mais aussi sa pertinence sur le long terme, dans les temps faibles comme dans les pics d’actualité.

 

Algorithmes et intelligence artificielle, piliers techniques de la modération

Depuis sept ans, Atchik travaille continuellement sur ses algorithmes et ses filtres pour offrir une modération des commentaires des médias efficace et rapide qui doit répondre à plusieurs objectifs.

Le premier consiste à protéger l’image de la marque. Pour les médias, cela consiste à supprimer le plus rapidement possible les contenus haineux, insultants et racistes. Grâce à sa technologie de modération augmentée, Atchik dispose d’une solution lexicale et sémantique capable d’isoler les éléments clairs de la haine en ligne pour les rendre invisibles.

Elle permet également de jouer sur le type de modération, que nous détaillons dans notre article sur la modération a priori et a posteriori. Alors que modérer depuis Facebook se fait forcément après publication, notre outil offre lui la possibilité de masquer, dès leur réception, les contenus problématiques avant qu'un modérateur ne les passe en revue.

De fait, notre intervention limite considérablement la capacité de nuisance de la haine en ligne.

Dans le même temps, cette solution technique permet de fluidifier les conversations en favorisant les contenus conversationnels à forte valeur ajoutée. Et s’il permet ce filtrage automatique, l’algorithme s’ajuste aussi en fonction des besoins. Ce système permet aux modérateurs de concentrer leurs efforts sur les éléments méritant une véritable attention.

Un projet à nous présenter ? Contactez-nous

 

Les modérateurs, garants de la valeur des conversations

Si certains contenus haineux ou polluants ne nécessitent pas d’interventions, d’autres méritent au contraire une vraie expertise. C’est le cas des messages plus ambigus, des droits de réponse mais aussi des fausses informations, des témoignages d’internautes ou encore des contenus à risque.

Quels sont ces contenus à risque ? Propos menaçants, pensées suicidaires... Voire revendications d’actes terroristes peuvent survenir dans les commentaires. Bien que rares, ils doivent toutefois faire l’objet d’une attention sans faille. Dans le cas de messages nécessitant un signalement à la plateforme Pharos, pour un péril imminent ou une violation claire de la loi, les modérateurs restent incontournables.



 

Plus largement, les modérateurs vont pouvoir prendre la décision adaptée sur les contenus les plus sensibles, les plus complexes et les plus ambigus. Si les insultes à caractère raciste ne laissent que peu de doute, les propos plus ambigus comme « Celui qui a fait ça n’a pas dû grandir près des fjords », selon le contexte, peuvent revêtir un caractère haineux.

Enfin, la modération humaine permet de signaler les messages les plus intéressants pour une rédaction comme les témoignages, les réponses de personnalités ou les tendances de fond qui transitent par les commentaires. Aux premières loges des conversations, ils en révèlent toute la valeur.

 

La modération made in France, au plus près des internautes…

Dans leur vie quotidienne, nos modérateurs sont aussi des lecteurs des médias français. Pour les vivre directement, professionnellement comme personnellement, ils comprennent les phénomènes qui transitent dans les conversations en ligne.

Références historiques ou culturelles, évolutions de langages, sous-entendus, faits d’actualité : les modérateurs d’Atchik ont toutes les références. Recrutés pour leur culture générale et leur esprit d’analyse, ils assurent un suivi de qualité sur les différents espaces, de Facebook aux sites de presse en passant par Youtube et tous les réseaux sociaux pertinents pour les médias.

 

… Et des besoins des médias

Les modèles économiques des médias reposent sur deux ressources principales :

  • La publicité 
  • L’abonnement.

Et si le premier implique de garder des espaces attractifs, le second doit aussi permettre de fidéliser ses lecteurs. Et c'est là que la modération des commentaires des médias a son rôle à jouer.

Ainsi, que peut-on garantir à un abonné ? D’abord, de ne pas regretter son choix. Il est donc primordial de lui fournir un service de qualité... Et, donc, des espaces de commentaires conformes à ses attentes éditoriales.

Ensuite, la capacité à commenter constitue une raison de rester. Et au-delà, recevoir des interactions de qualité en toute sécurité augmente cet intérêt la fierté de contribuer au média.

Enfin, toute récompense de sa fidélité s’avère intéressante… Ainsi, mieux vaut pouvoir compter sur des modérateurs connaissant bien les communautés pour identifier les internautes les plus remarquables.

Mais au-delà, comment donner envie aux lecteurs de s’abonner ? Là encore, le modérateur attentif pourra identifier les contributeurs réguliers à qui proposer diverses formules, voire une version d’essai préférentielle… Et donc monétiser ces espaces de commentaires.

Découvrez Mediaktiv, notre offre de modération conçue pour les médias

 

Ajoutés aux nombreux témoignages pouvant alimenter chaque jour la rédaction en articles potentiels, ces services réguliers rendus par un service de modération expert des médias permettent de renforcer la cohérence éditoriale… Mais aussi le modèle économique et la rentabilité des titres.

Brice

 
post linkedin modérations des médias

crossmenuchevron-down linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram