Découvrez Atchik-Booost.com, notre solution pour optimiser la visibilité des petites et moyennes entreprises
On sait que la modération garantit la liberté d'expression et qu'elle protège les espaces des attaques de pages, des incursions de trolls et de la haine en ligne... Mais en période électorale, d'autres enjeux liés à la politique se greffent aux tâches quotidiennes effectuées par les modérateurs dans les espaces de commentaires des comptes sociaux de médias, d'institutions... Et même des entreprises ! Plongez avec nous dans un week-end électoral sur les réseaux sociaux du point de vue des modérateurs.
C'est LE temps fort de la vie citoyenne... Et de l'expression sur les réseaux sociaux. A l'instar des Jeux Olympiques ou du Mondial de football pour les diffuseurs et fabricants de téléviseurs, l'élection présidentielle représente à la fois un enjeu très fort, un pic d'activité... Et l'occasion de mettre au point des nouveautés technologiques, comme notre plateforme Lokus lancée il y a six mois dans cette perspective. Mais ce n'est pas que ça et comme nous avions l'occasion de le rappeler lors d'une conférence au Social Media Club France en décembre, le chemin pour en arriver là fut long.
Fake news et désinformation, manipulations, campagnes massives de déstabilisation... Les incursions désagréables pour le reste des internautes fleurissent en période de campagne électorale ; et bien évidemment, c'est encore pire dans le sprint final.
Ainsi, pour commencer, comment ne pas penser aux entreprises qui font l'actualité malgré elles et voient, jusqu'aux derniers instants avant le vote, leurs mésaventures récupérées ou mises au pilori par les candidats ? Les exemples ne manquent pas : un scandale sanitaire, un rappel massif de produits, une difficulté temporaire... Et c'est la double peine pour une compagnie déjà situation de gestion de crise. Ne parlons même pas des entreprises sous le feu des critiques pour leur présence en Russie en pleine guerre en Ukraine.
Et si nos services de veille ont l'habitude de gérer ces situations, il en est de même pour nos modérateurs, systématiquement en première ligne. A eux d'éponger les commentaires arrivant sur la page d'une marque. Et, souvent, d'y répondre et assurer le community management conversationnel.
Arrêter les trolls, d'accord. Eviter les attaques de page, très bien. Protéger nos clients annonceurs pris sous le feu de l'actualité politique, c'est noté. Mais du côté des médias et des pages institutionnelles sur les réseaux sociaux, y a-t-il des règles plus précises à observer juste avant les élections ?
La réponse ne va pas vous surprendre : oui.
A partir du vendredi soir, les modérateurs devront faire appliquer les règles en vigueur, en s'appuyant notamment sur :
Qui dit élections dit réactions, commentaires, pronostics... Puis à nouveau réactions, commentaires et pronostics pour le mandat à venir, le tour suivant ou l'élection suivante à l'annonce des résultats. Pour être plus clair, il faut s'attendre à beaucoup de commentaires, partout, tout le temps. Et surtout en soirée.
Si la période de campagne électorale représente une hausse de près de 40% des conversations à modérer sur les différents espaces pour une entreprise comme la nôtre, la journée du vote peut encore doubler, voire tripler ce volume selon la nature des candidats, la possible surprise induite par les résultats ou encore les événements liés aux réactions des candidats eux-mêmes. Notre équipe ne risque pas de se coucher tôt dimanche soir.
Et puisque les médias sociaux permettent à chacun d'y trouver leur compte, on a un bon plan pour vous si vous voulez éviter la routine électorale :
👉 Venez suivre les résultats sur la chaîne Twitch de franceinfo avec Clément Viktorovitch, Olivia Leray, Manon Mella, Jules de Kiss... Et nos équipes à la modération du tchat 😉
Les modérateurs en ont fait leur meilleure alliée. C'est en presque devenu leur bible. Oui, nous parlons bien de la charte de modération, ce document qui édicte les règles relatives aux conversations en ligne sur un lieu d’échanges comme les forums, les blogs et les réseaux sociaux. Mais concrètement, c’est quoi une charte de modération ? On vous explique ⬇️
En tant que document de référence, la charte de modération cadre les discussions d’un espace d’échanges en ligne. Elle justifie aussi bien l’acceptation de certains contenus que leur suppression, par exemple en cas d’avis en ligne injurieux ou de commentaires contraires à vos règles d’utilisation.
Elle permet aux utilisateurs d’un forum, d’une page Facebook ou d’un compte Instagram de prendre connaissance des termes et propos tolérés. Si un contenu (message, vidéo, image…) ne rentre pas dans les critères d’une charte de bonne conduite préalablement établie, ce dernier sera donc filtré par le modérateur du lieu d’échanges, forum ou réseau social.
Créer une charte de modération revient à cadrer les contenus publiés sur son forum, son blog ou sur son réseau social. Sans cette dernière, toute suppression de commentaires qui ne rentrerait pas dans le cadre d’une charte de modération clairement éditée serait injustifiée et pourrait surprendre les contributeurs… Pas forcément un bon moyen de fidéliser les lecteurs de son blog ou de son média en ligne par exemple.
Éditer une charte de modération revient également à protéger son image. Cela permet de pouvoir supprimer tout commentaire qui viendrait nuire à sa propre image, à l’image de son entreprise et même à l’image d’autrui. Il s'agit des CGU, ou Conditions Générales d'Utilisation.
La charte de modération permet aussi et surtout aux modérateurs de savoir ce qui peut être publié et ce qui peut être refusé. À savoir que, selon les préférences, un commentaire peut être publié a priori ou a posteriori, ce qui permet aux modérateurs de pouvoir prendre le temps de vérifier la conformité du fond et de la forme d’un commentaire. Nous en avions d’ailleurs parlé dans un précédent billet de blog.
La charte de modération est composée de plusieurs rubriques : les règles de publication d’un commentaire, les contenus non tolérés par l’espace d’échanges et les contenus illicites au vu de la loi.
Ces premières lignes ont pour but d’indiquer à ses utilisateurs comment publier un commentaire conforme à la charte de modération. Parmi ces règles, on peut notamment retrouver les conditions suivantes :
D’autres règles peuvent venir s’ajouter à cette liste non exhaustive. Tout dépend de l’objectif de votre charte de modération. Souhaitez-vous que votre lieu d’échanges soit ouvert à tous ou souhaitez-vous avoir un minimum d’autorité sur les contenus publiés ? Si oui, quels sont les types de commentaires que vous souhaitez laisser en public ? C’est en répondant à ces questions que vous pourrez établir une liste de règles et d’indications pour vos utilisateurs.
Pour en savoir plus, n’hésitez pas à consulter notre propre charte de modération juste ici 😉
Pour réguler les échanges et garantir un lieu de discussion sain, des propos et thématiques peuvent ne pas être publiés s’ils ne s’inscrivent pas dans la charte de modération. Cela peut concerner par exemple la publicité, la publication de liens, les scams, les attaques directes envers un contributeur, la vulgarité, les insultes… La liste peut être plus ou moins longue selon le but de votre charte de modération. Par exemple voici la liste des contenus non tolérés sur notre blog :
Un contenu illicite est bien différent d’un contenu non toléré. La subtilité réside dans la légalité d’un propos. Voyons ça sous un autre angle : des propos ne peuvent être tenus aussi bien dans l’espace public que sur le web. Certains internautes ont malheureusement souvent tendance à l’oublier, mais on ne peut pas tout dire sur Internet. Voici une liste non-exhaustive des contenus illicites :
À savoir que certains de ces propos illicites sont supprimés par les modérateurs et signalés sur la plateforme du ministère de l’Intérieur Pharos.
Source : interieur.gouv.fr
Vous ne pourrez pas créer une bonne charte de modération si vous ne définissez pas un objectif à cette dernière. Souhaitez-vous protéger votre image ou l’image de votre entreprise ? Souhaitez-vous faire de votre espace d’échanges un lieu ouvert à tous types de propos légaux ou souhaitez-vous filtrer certains contenus ?
Nous pouvons vous aider à répondre à ces questions pour créer une charte de modération claire et explicite. En tant qu’acteur historique de la modération de contenus en ligne, nous avons eu l’occasion d’en pratiquer ou d’en créer plus d’une ! N’hésitez pas à prendre contact avec nous pour que nous puissions vous accompagner dans votre stratégie de modération 😉
Donald Trump a été banni de Twitter, de Facebook, de Twitch, de Snapchat et d'Instagram. Tandis que les extrémistes pro-Trump marchaient sur le Capitole des Etats-Unis, les grands réseaux sociaux ont franchi le Rubicon de l'exclusion du président sortant... Avec un retentissement loin d'être terminé, et une réactivation du débat sur la puissance de ces entreprises. Si nous croyons à davantage de régulation et d'harmonisation publique des plateformes dans les systèmes démocratiques, force est de constater que les réseaux sociaux ont, ici, fait fonctionner ce qu'on leur demande à longueur de temps : leur service de modération. Retour sur une constante du web social.
Tel un poisson-pilote, la modération n'a jamais cessé d'accompagner le développement des réseaux sociaux depuis leur avènement. Et si la métaphore invite à voir dans les plus grandes plateformes de redoutables requins, on peut la filer davantage encore pour rappeler l'utilité de ces animaux dans leurs écosystèmes et leur très faible létalité sur l'homme. Il en est de même en matière de web social où, si l'on peut déplorer de nombreux effets des réseaux sociaux tels que le cyberharcèlement, les bulles de filtre et toutes les manifestations de la haine en ligne, il ne faudrait pas oublier les effets, bien pires, d'une censure d'Etat sur ces mêmes réseaux sociaux lorsqu'elle opère et les incroyables progrès sociaux et sociétaux que les mobilisations en ligne ont permis au cours des dernières années.
Alors que les premiers Printemps Arabes fêtent leur dizième anniversaire cette année et que Julian Assange n'a pas été extradé, 2020 a prolongé autour de Black Lives Matter des revendications sociales rendues possibles par les réseaux sociaux. Twitter a certes servi de tribune à Donald Trump ces quatre dernières années : il a aussi vu naître #MeToo et sa déclinaison #BalanceTonPorc. Des groupes Facebook ont permis aux Gilets Jaunes de se fédérer et s'organiser aux débuts du mouvement. L'an dernier, le Recondustream sur Twitch a soutenu financièrement les efforts de grève lors des mobilisations de 2019... Et si l'on considère les fruits du travail de collecte en veille e-réputation, on peut aisément imaginer que les considérations plus vertueuses de nombreuses entreprises sur leur empreinte carbone, le sourcing de leurs ingrédients, la composition de leurs produits ou une plus large inclusion sont le fruit des mobilisations sur les réseaux sociaux.
Donald Trump a été banni de Twitter et consorts. Dont acte. Pourtant, une entreprise privée qui, symboliquement, destitue un président - encore - en exercice interpelle, questionne et inquiète. Beaucoup y voient un très mauvais présage pour la liberté d'expression et l'opposant russe Alexei Navalny y trouve des similitudes avec sa propre situation en Russie. Il ne faudrait, pourtant, pas faire l'économie d'une analyse plus fine. Twitter ne s'assimile pas à une censure d'Etat, auquel cas les opposants à Donald Trump auraient été muselés durant quatre ans, et les réseaux disposent de CGU que tout un chacun se doit d'approuver. Après les avoir lues, bien entendu...
Non, ici Facebook, Twitter, Twitch et les autres ont fait respecter leurs CGU, ces conditions d'utilisation que nous vous avions présentées ici, jusqu'au premier des citoyens Etatsuniens, dans un cadre d'expression militant plus que présidentiel. Celui-ci dispose d'un statut particulier en tant que président, ce qu'Arrêt sur Images décrit d'ailleurs comme une "faute originelle". En fin de mandat et alors que son action lui vaut une procédure d'impeachment, il peut aussi s'entendre que la modération ait tout simplement fait son travail. Sans exception.
Peut-être que la meilleure analogie reste celle du patron de bar ou de restaurant. Si le gérant affiche "tenue correcte exigée", il s'octroie le droit de vous refuser l'accès en short et tongs. Et à plus forte raison, si vous violez la loi ou la Constitution, le responsable peut vous exclure, voire faire appel aux autorités. A-t-il pour autant outrepassé ses prérogatives ?
La meilleure analogie de la modération de réseau social, c'est celle du patron de bar PMU.
Il veut bien entendre des millions de conneries par jour mais faut pas venir foutre la merde.
— legrugru (@legrugru) January 10, 2021
Que le Président des USA en exercice ait été banni des plus grandes plateformes d'expression en ligne privées du monde, qui plus est toutes Etats-uniennes, a quelque chose de profondément désolant, nul ne peut le nier. Mais en creusant un peu :
Cette mise au clair, à l'aide d'un cadre bien défini et surplombant les différentes plateformes pour donner de l'unité à l'ensemble, c'est bien le sens pris par les travaux sur le Digital Services Act, à suivre de près. La question de la modération de la haine en ligne, justement, y paraît actuellement centrale.
Que des entreprises privées appliquent leurs règles de modération n'est pas nouveau c'est même l'une des principales revendications formulées au cours des dernières années. Qu'une décision de modération soit si contestée reste, en revanche, un véritable événement.
On se souvient notamment de la censure d'oeuvres d'art présentant des nus sur Facebook ou, encore, de la grossophobie implicite des algorithmes d'Instagram. On doit aussi se souvenir de tous les moments de la lutte contre la haine en ligne où l'on a déploré le laxisme des plateformes face à des contenus révisionnistes, xénophobes ou néo-nazis... Ou encore du manque de réactivité face aux lives, de la diffusion en Facebook Live de l'attentat islamophobe de Christchurch ou sur Twitch de l'attentat antisémite de Halle. Dans le cas de l'invasion du Capitole, les plateformes ont pris leurs responsabilités. Trop tard, peut-être. Maladroitement, certainement. Hypocritement, cela reste à discuter. Mais auraient-elles pu soutenir de cautionner des contenus séditieux parmi les plus visibles du monde ?
Ce n'est certainement pas notre rôle de trancher cette question. Tout juste pouvons-nous trouver :
Peut-être est-ce là le début d'une large prise de conscience et d'une harmonisation des règles, permettant enfin aux GAFA de ne pas disposer de pouvoirs régaliens tout en garantissant une protection contre la tentation d'une censure d'Etat. Nous, qui défendons la vision de commentaires au coeur de la vie citoyenne moderne pour le meilleur et pour le pire et de moyens en rapport avec les enjeux, ne pouvons que nous réjouir d'une prise de conscience à grande échelle.
Que peuvent bien avoir en commun les réseaux sociaux et l'actualité ? C'est simple, ils ne s'arrêtent jamais. Mieux (ou pire, selon les points de vue) : ils s'alimentent mutuellement, l'un devenant le sujet de l'autre en permanence. Des médias aux médias sociaux, il existe une cohérence évidente que l'actualité du moment vient nous rappeler brutalement. Car après l'attentat, bien réel, contre Samuel Paty, puis avec le débat sur la haine en ligne, les équipes d'Atchik ont fait face à un afflux rarement vu de commentaires au cœur de l'actualité. Commentaires qui ont constitué, en eux-mêmes, un sujet d'actualité dans la foulée. Forts d'une position rare d'acteurs et d'observateurs privilégiés des phénomènes en ligne, nous avons voulu revenir sur cet épisode d'octobre 2020 si intense... Et loin d'être terminé.
Dans un mois d'octobre 2020 déjà marqué par la reprise de l'épidémie de Covid-19, la vraie séquence d'actualité a commencé avec l'attentat terroriste ayant coûté la vie à l'enseignant Samuel Paty. Comme lors des précédentes attaques, une vague d'indignations s'est rapidement répandue sur le web social, suivie, très rapidement, d'une récupération par les extrêmes. Et si, en politique, l'union nationale après de tels drames dure de moins en moins longtemps, la relative trève sur les réseaux sociaux avant la déferlante de haine en ligne s'amenuise elle aussi au fil des attentats.
Cette haine en ligne, en quelques jours, s'est même retrouvée au coeur du débat public. Avec une volonté affichée de réagir rapidement aux événements, l'exécutif et les responsables politiques ont porté le débat sur la question de la régulation des réseaux sociaux et des propos qui y étaient tenus. Lutte contre l'anonymat, nouvelles lois... Tout y est passé. Deux termes ont ainsi capté l'attention : les réseaux sociaux et leur modération.
Besoin de visualiser l'impact des dernières actualités sur l'activité de modération d'Atchik ? D'abord, le volume de commentaires à analyser a triplé depuis l'attentat de Conflans-Sainte-Honorine. Ensuite, les conséquences directes ou indirectes avec, notamment, le débat sur la haine en ligne et surtout les appels au boycott des produits français, ont fait voler en éclat les standards habituels. Jugez plutôt :
Forts d'un rôle crucial dans l'exercice de la liberté d'expression et dans l'articulation du débat démocratique, les métiers techniques de la modération ou de la veille d'opinion méritent un éclairage, que l'actualité a ici permis. Nous avons par exemple ouvert nos portes à France 3 pour mettre en avant nos métiers et l'importance d'un arbitrage humain dans les tâches de modération, qui ne sauraient souffir d'une automatisation complète ou d'un service négligé. Cela nous a permis de rappeler le besoin de vigilance de tout un chacun contre la haine en ligne et l'importance de la plateforme Pharos dans le gestion des signalements, comme le rapporte franceinfo dans son reportage sur le travail de modération d'Atchik :
Après un début de semaine annonçant la couleur, une montée soudaine (voir ci-dessus) des contributions en ligne a mobilisé encore davantage nos équipes. Et si les modérateurs ont eu fort à faire, des nombreuses entreprises françaises ont dû évaluer les risques liés aux appels au boycott après les déclarations d'Emmanuel Macron quant aux caricatures et à la liberté d'Expression en France. Illustration parfaite d'une actualité très évolutive, les propos rapportés par la radio RTL le samedi 24 octobre anticipaient cette hausse sans toutefois en saisir pleinement la portée. Il a ainsi a été question d'islamophobie, de racisme et de xénophobie parmi les principaux messages constituant la haine en ligne à cet instant. Pourtant, indéniablement, les proportions et la teneur ont évolué dans la même journée.
C'est cette hausse soudaine qui explique, notamment, l'intervention de Brice Le Louvetel le samedi 24 au soir en direct sur CNEWS. Et si l'extrait diffusé sur les réseaux sociaux ne laisse entrevoir qu'un volet que l'on peut imaginer sécuritaire, le propos dans son intégralité porte sur la nature de la haine en ligne à cet instant et sur la surcharge de travail que ces réactions durant la semaine ont pu constituer pour une équipe de modération.
Le sujet du contrôle des contenus et de la participation accrue des réseaux sociaux à la modération de leurs contenus est revenu sur la table durant la semaine. Il a même été question d'un éventuel retour d'une loi Avia pour lutter contre les propos haineux. Pourtant, l'arsenal juridique existe déjà et des entreprises comme la nôtre agissent pour le compte de leurs clients afin de modérer leurs comptes sociaux. Chaque propriétaire de page Facebook, de compte Instagram ou encore LinkedIn reste en effet responsable des commentaires abrités sous ses posts. Or le problème se pose ailleurs, dans la responsabilité, voire la responsabilisation des réseaux sociaux entiers - Facebook, Twitter, TikTok et consorts.
Nous estimons néanmoins que pointer du doigt les réseaux sociaux et leurs commentaires dans leur globalité ne résout pas le problème, vue la diversité d'opinions qui s'y expriment. Donner davantage de pouvoir, notamment juridique, aux GAFAM ne ferait qu'accentuer l'effet pervers de la privatisation des pouvoirs régaliens, comme le rapporte l'article du Journal Toulousain sur la modération des contenus haineux. En revanche, il convient de s'attarder sur le véritable moteur de la haine en ligne : les bulles de filtre. C'est ce que nous avons exprimé au micro de France Bleu Occitanie dès le 20 octobre :
Cette période médiatique et social media si intense, qui est appelée à se prolonger avec l'annonce d'un nouveau confinement en France pour raisons sanitaires, a eu deux vertus. D'une part, la question de l'omnipotence des GAFAM a pu mener à une prise de conscience collective de la place des commentaires en ligne dans le débat démocratique. D'autre part, ces événements ont permis de faire la lumière sur le travail de modération qui, loin de se conformer à un exercice de censure, permet au contraire de laisser chacun s'exprimer en posant des règles qui protègent, justement, cette même pluralité d'opinions.
Si le modérateur est encore, trop souvent, caricaturé et décrié, nous n'en restons pas moins persuadés de son caractère indispensable. Par ses fonctions de détection, de compréhension des phénomènes et de régulation, la modération reste l'un des métiers les plus essentiels du web social. La modération opérée par les réseaux sociaux eux-mêmes reste une autre spécialité, toute aussi indispensable et plus difficile à appréhender, tant les enjeux sont importants. Et puisqu'il faut nommer les choses, rappelons-le pour conclure :"Les bulles de filtre sont le coeur du problème de la haine en ligne."
RETOUR AUX SOURCES. On vous parle souvent de la modération car elle soulève des points de débats importants aujourd’hui, entre censure et liberté de parole notamment. Mais concrètement, est-ce la même chose sur chaque réseau social ? (suite…)
En annonçant un déploiement en cours sur la modération des réponses à un tweet, le réseau social aux 240 caractères, défenseur historique de la liberté d’expression la plus poussée, fait non pas un mais deux grands pas en avant… Et engage de nombreux acteurs du web social sur son chemin. Explications de ce qui nous semble être une décision majeure et salutaire.
C’était il y a sept ans. En septembre 2012, contre vents et marées, Twitter maintenait son cap d’une liberté d’expression quasi-absolue et en faisait son étendard, dans un océan du web social en pleine concentration et dont les eaux les plus fréquentées se teintaient d’un profond bleu Facebook. Vente de données, rentabilisation des communautés, tels étaient les enjeux et les pressions devant lesquelles Twitter se refusait à tout abandonner, bien au contraire. Sa marque de fabrique et son modèle économique – sa monétisation qui a tant fait couler d’encre – devaient bientôt reposer sur cette ouverture, cette accessibilité et cette expression sans limites, pour le confort et la satisfaction de ses utilisateurs.
Oui mais voilà : les quelques années suivantes, les rumeurs et autres « fake news » ont pullulé, les dictionnaires Oxford ont fait de la « post-vérité » (post-truth) le mot de l’année 2016, les groupes politiques se sont organisés au point de démultiplier les zones de bombardement des éléments de langage et autres réponses aux accents pavloviens… Et même les vieux loups de mer du réseau bleu clair ont été tentés de changer de cap ou de déserter ses eaux, lassés par la stérilité croissante et, parfois, inexorable, des échanges. Et c’est dans cette nouvelle configuration, où l’expression désordonnée de tous génère du bruit pour tous, que Twitter monte au créneau.
Voilà une équation délicate. C’est pourtant ce défi que Twitter se propose de relever avec sa fonctionnalité de masquage des tweets de réponse. En clair, lorsqu’un utilisateur tweete, des réponses peuvent s’agréger et générer un fil (thread) ; or ce fil peut être pris d’assaut par des utilisateurs vulgaires, critiques, polluants ou malveillants (si si, demandez à Samuel Laurent). 1% de trolls avérés et quelques messages d’interactions totalement dénuées d’intérêt doivent-ils pour autant gâcher toutes les conversations ?
La réponse formulée par Twitter, et à laquelle nous adhérons totalement en tant que modérateurs, est bien évidemment non. En permettant à un auteur de masquer les réponses à son propre tweet, le réseau offre la possibilité de mettre de l’ordre dans les commentaires… Sans pour autant censurer : en effet, les tweets masqués seront toujours accessibles à ceux qui voudraient les consulter. Mieux : ils prendront pour certains un peu de valeur en montrant le type de réponses écartées, en toute transparence.
@Twitter Thanks for the new feature I was notified of tooday! The new feature that lets the tweet autor "hide" replies to his tweet. Now we can go directly to what the author doesn't want us to see, and read all the censored stuff first.
— Not your Mom (@Notyour28981739) October 10, 2019
Qu’est-ce qui fait de Twitter un endroit si particulier ? Son expression, sa rapidité, ses messages, ses répliques cultes… Bref, son contenu. Et pour garder son intérêt, le réseau sait bien qu’il doit remettre en avant ses talents et permettre de les pousser prioritairement : ce fut le choix d’introduire un algorithme de sélection en plus du simple classement chronologique, par exemple ; c’est aujourd’hui le choix de rendre à un auteur le contrôle de ses fils de discussion et, ainsi, de rendre plus apparents ses choix et sa couleur éditoriale. Non qu’il s’agisse d’une obligation à prendre parti mais plutôt, a minima, à faire place nette et juger de la valeur, pour les lecteurs, de toutes les réponses sur des questions de forme et, pourquoi pas, de fond. Le choix des critères de chacun sur Twitter s’avère d’ores et déjà passionnant !
This new Twitter feature that lets tweet authors hide replies to their tweets is...I don't see how this could be abused by anyone in any way 🙄
— 🇺🇸Josh Keaton🇵🇪 (@joshkeaton) October 10, 2019
C’est là le deuxième pas fait par Twitter… Et peut-être le plus décisif. En introduisant ainsi la modération dans son dispositif sans céder un pouce à ses convictions de liberté d’expression, la firme à l’oiseau bleu officialise l’importance capitale des modérateurs dans la vie des réseaux sociaux et des espaces d’expression en ligne. Sans possibilité d’y voir une quelconque censure, laquelle serait rendue impossible par l’effet Streisand généré par les éventuels masquages abusifs, dans la mesure où les tweets écartés restent à tout moment consultables.
Pourra-t-on alors sérieusement y voir une atteinte à la liberté d’expression ? Non. Comme détaillé ci-dessus, seule la liberté de troller s’en trouvera affaiblie. Censure ? Pas vraiment : rien n’empêche de se plaindre d’un masquage et, d’ailleurs, il y a fort à parier que les interactions mécaniques de type « visiblement, mes propos dérangent / font mouche / disent la vérité (sélectionnez votre variante préférée), j’ai encore été censuré » ne tarderont pas à éclore. S'il est certain que de nombreuses marques et entreprises seront tentées de cacher les critiques, le fameux effet Streisand discuté plus haut ne tardera toutefois pas à dissuader les responsables de ces comptes.
hide reply is the best feature of twitter in years: it makes you the editor of your tweet’s timeline.
— santi 👹 (@santisiri) October 10, 2019
Le choix des messages masqués en dira ainsi long sur le type de profil administrateur de ces échanges et sur l’intérêt des conversations qu’il génère et entretient, sur le long terme.
Les médias, les personnalités publiques et les grandes marques auraient donc tout intérêt, dès lors, à prendre très au sérieux cette fonctionnalité à venir et à investir dans une modération intelligente, pondérée et… Valorisante. Car plus leurs comptes seront entretenus, plus leur intérêt pour leurs communautés éclatera au grand jour !