Découvrez Atchik-Booost.com, notre solution pour optimiser la visibilité des petites et moyennes entreprises

janvier 19, 2022

Désormais paru au Journal Officiel, le décret (n°2022-32) visant à mieux lutter contre la "haine en ligne" impose de nouvelles obligations - de modération entre autres - aux plateformes hébergeant des contenus d'internautes tels que des commentaires. Concrètement, que vont changer ces nouvelles dispositions et pourront-elles avoir un impact sur votre gestion de la présence en ligne ? Haine en ligne, Arcom, pression sur les GAFAM... C'est le moment de faire le point.

 

Haine en ligne, ARCOM : tous concernés par la modération de contenu ?

La lutte contre les contenus haineux et illicites, qui passe par la modération, se précise. Rôle de l'ARCOM, durée de validité de l'application du texte, seuils : les contours apparaissent plus nettement et, avec eux, les possibles impacts sur la gestion des conversations en ligne.

 

Un décret "d'attente" avant le Digital Services Act

Commençons par le commencement.

Ces dispositifs de lutte contre la haine en ligne (les "contenus en ligne haineux et illicites") ont vocation à laisser la place, une fois la transposition assurée en droit français, au Digital Services Act à l'échelle européenne. Véritable travail de création d'un environnement en ligne européen sans passe-droit, le texte permettra d'encadrer les très grands acteurs des internets et du web social (comprenez : les GAFAM) en garantissant la protection des utilisateurs.

Ainsi, le décret est appelé à devenir caduc une fois le DSA en vigueur, au plus tard le 31 décembre 2023.

 

Deux palliers de lutte contre la haine en ligne pour les plateformes

Si le décret vise assez clairement les GAFAM, il se veut un minimum graduel et fait donc la différence entre des acteurs importants et des acteurs décrits comme "systémiques".

 

Au-delà de 10 millions de visiteurs uniques mensuels

Comme l'explique clairement le communiqué du ministère de la Culture :

Les opérateurs dont l’audience dépasse un seuil de 10 millions de visiteurs uniques mensuels seront soumis à un socle d’obligations portant notamment sur la coopération avec les services répressifs, sur la mise en place de dispositifs de notification des contenus haineux illicites et de traitement de ces notifications, et sur la transparence concernant la modération de ces contenus.

Or, la "transparence concernant la modération de ces contenus" nous intéresse particulièrement. D'abord, parce qu'elle englobe largement tous les UGC, les contenus générés par les utilisateurs. Ensuite, parce qu'elle pose des questions pratiques. Comment va-t-elle se mettre en place ? Sur quels critères ? Nous y reviendrons.

 

Au-delà de 15 millions de visiteurs uniques mensuels : les "acteurs de taille systémique"

Le texte prévoit un deuxième pallier de mesures. Destiné aux plateformes telles que les réseaux sociaux dominants et grands hébergeurs d'avis en ligne, il se veut plus structurant.

Ces acteurs disposent d'une taille reconnue comme "systémique". A ce titre, ils se verront appliquer une couche supplémentaire d'obligation, plus ciblée encore et plus volontariste. Concrètement, "ils devront évaluer les risques de dissémination de contenus haineux illicites sur leurs services et prendre des mesures pour lutter contre cette dissémination, tout en veillant à préserver la liberté d’expression".

Qui sera évidemment concerné ? TikTok, Facebook (avec Whatsapp et Instagram), Twitter, Google, Snapchat, LinkedIn, Twitch... Mais aussi Netflix, Amazon, CDiscount, AliBaba, Pinterest, Reddit ou Orange.
Et puis, il y a les moins évidents. Ceux qui l'on ne range pas parmi les plateformes. Et si l'on en croit le dernier rapport Médiamétrie la SNCF, Doctolib ou Solocal Group dépassent bien les 15 millions de visiteurs par mois. Au total, les 50 plus grands groupes identifiés par médiamétrie franchissent ce seuil.

Bien. Mais... Comment fixer le cadre d'évaluation et faire en sorte que chacun applique de manière harmonieuse ces principes ? C'est là qu'entre en scène l'ARCOM, nouvelle autorité de régulation.

 

L'ARCOM, nouvelle autorité de lutte contre la haine en ligne

logo de l'Arcom

L'Autorité de régulation de la communication audiovisuelle et numérique, ou ARCOM, s'impose comme le nouvel acteur public de régulation. Né de la fusion entre le CSA et Hadopi, l'organisme se prépare donc à agir comme un "CSA des internets". Il permet ainsi à la puissance publique de s'appliquer sur un territoire jusqu'ici délicat, sans juste milieu entre action judiciaire et modération.

Et en ce qui concerne ce décret, c'est donc bien à l'ARCOM que revient le suivi, l'arbitrage... Et les éventuelles sanctions en cas d'abus des plateformes, qu'elles soient de streaming ou réseaux sociaux.

Ainsi, L'ARCOM peut mettre en demeure les sites de se conformer, sous peine de sanctions économiques. Et ces dernières peuvent s'élever jusqu'à "1% du chiffre d'affaires mondial total" des plateformes. De quoi inciter les GAFAM à revoir leurs dispositifs existants.

 

Mais concrètement, pour vous et la modération de vos espaces ?

Concrètement ? Si les plateformes sont tenues à une meilleures régulation des contenus et conversations en ligne qu'elles hébergent, il n'est pas dit que les options offertes aux propriétaires de pages ou de comptes d'entreprises pour faciliter la modération des contenus ne s'en trouve modifiées.

Vous pourrez donc être concernés à deux titres :

  • Si votre groupe atteint 10 millions de visites par mois, voire 15 millions pour le pallier suivant ;
  • Si votre marque, entreprise ou entité dispose d'un compte social à l'audience significative sur l'un de ces sites.

 

Dans le deuxième cas, il vous faudra donc vous équiper en conséquence, comme maintenant. Et, pourquoi pas, externaliser la modération voire l'animation des espaces pour en tirer le meilleur parti.

En revanche, il se pourrait bien que certains profils se fassent plus rares dans vos espaces, à l'instar des trolls politiques, des faux-comptes de pression... voire des profils faisant l'apologie du terrorisme, comme on en croise hélas sur certains espaces. Ces éléments particulièrement sensibles, si l'on suit la logique juridique du décret, devraient se voir opposer le nouveau travail des plateformes pour lutter contre la haine en ligne.

Pour l'instant, les effets à attendre de ces nouvelles dispositions restent nécessairement flous. Il nous faudra attendre l'application des textes pour en juger. Et juger du traitement de la haine en ligne par l'ARCOM. Toutefois, comptez sur nous pour y veiller et, le cas échéant, vous faire part de modifications ou d'ajustements qui pourraient survenir dans les prochaines semaines.

En attendant... La modération aux deux niveaux que sont les plateformes et les comptes sociaux reste centrale dans la lutte contre la haine en ligne. Et pour vos espaces, rien ne vaut l'activité de modération que vous engagez pour protéger votre e-réputation : sur cet aspect-là, vos choix restent déterminants !

 
Steve

janvier 13, 2021

Donald Trump a été banni de Twitter, de Facebook, de Twitch, de Snapchat et d'Instagram. Tandis que les extrémistes pro-Trump marchaient sur le Capitole des Etats-Unis, les grands réseaux sociaux ont franchi le Rubicon de l'exclusion du président sortant... Avec un retentissement loin d'être terminé, et une réactivation du débat sur la puissance de ces entreprises. Si nous croyons à davantage de régulation et d'harmonisation publique des plateformes dans les systèmes démocratiques, force est de constater que les réseaux sociaux ont, ici, fait fonctionner ce qu'on leur demande à longueur de temps : leur service de modération. Retour sur une constante du web social.

Tel un poisson-pilote, la modération n'a jamais cessé d'accompagner le développement des réseaux sociaux depuis leur avènement. Et si la métaphore invite à voir dans les plus grandes plateformes de redoutables requins, on peut la filer davantage encore pour rappeler l'utilité de ces animaux dans leurs écosystèmes et leur très faible létalité sur l'homme. Il en est de même en matière de web social où, si l'on peut déplorer de nombreux effets des réseaux sociaux tels que le cyberharcèlement, les bulles de filtre et toutes les manifestations de la haine en ligne, il ne faudrait pas oublier les effets, bien pires, d'une censure d'Etat sur ces mêmes réseaux sociaux lorsqu'elle opère et les incroyables progrès sociaux et sociétaux que les mobilisations en ligne ont permis au cours des dernières années.

 

Donald Trump banni des réseaux sociaux, une modération qui fait débat

Alors que les premiers Printemps Arabes fêtent leur dizième anniversaire cette année et que Julian Assange n'a pas été extradé, 2020 a prolongé autour de Black Lives Matter des revendications sociales rendues possibles par les réseaux sociaux. Twitter a certes servi de tribune à Donald Trump ces quatre dernières années : il a aussi vu naître #MeToo et sa déclinaison #BalanceTonPorc. Des groupes Facebook ont permis aux Gilets Jaunes de se fédérer et s'organiser aux débuts du mouvement. L'an dernier, le Recondustream sur Twitch a soutenu financièrement les efforts de grève lors des mobilisations de 2019... Et si l'on considère les fruits du travail de collecte en veille e-réputation, on peut aisément imaginer que les considérations plus vertueuses de nombreuses entreprises sur leur empreinte carbone, le sourcing de leurs ingrédients, la composition de leurs produits ou une plus large inclusion sont le fruit des mobilisations sur les réseaux sociaux.

Donald Trump a été banni de Twitter et consorts. Dont acte. Pourtant, une entreprise privée qui, symboliquement, destitue un président - encore - en exercice interpelle, questionne et inquiète. Beaucoup y voient un très mauvais présage pour la liberté d'expression et l'opposant russe Alexei Navalny y trouve des similitudes avec sa propre situation en Russie. Il ne faudrait, pourtant, pas faire l'économie d'une analyse plus fine. Twitter ne s'assimile pas à une censure d'Etat, auquel cas les opposants à Donald Trump auraient été muselés durant quatre ans, et les réseaux disposent de CGU que tout un chacun se doit d'approuver. Après les avoir lues, bien entendu...

illustration modération régulation réseaux sociaux trump

Comment aborder le besoin de régulation ?

Non, ici Facebook, Twitter, Twitch et les autres ont fait respecter leurs CGU, ces conditions d'utilisation que nous vous avions présentées ici, jusqu'au premier des citoyens Etatsuniens, dans un cadre d'expression militant plus que présidentiel. Celui-ci dispose d'un statut particulier en tant que président, ce qu'Arrêt sur Images décrit d'ailleurs comme une "faute originelle". En fin de mandat et alors que son action lui vaut une procédure d'impeachment, il peut aussi s'entendre que la modération ait tout simplement fait son travail. Sans exception.

Peut-être que la meilleure analogie reste celle du patron de bar ou de restaurant. Si le gérant affiche "tenue correcte exigée", il s'octroie le droit de vous refuser l'accès en short et tongs. Et à plus forte raison, si vous violez la loi ou la Constitution, le responsable peut vous exclure, voire faire appel aux autorités. A-t-il pour autant outrepassé ses prérogatives ?

 

Modération, loi et justice : des arbitrages qui lient Etats et GAFA

Que le Président des USA en exercice ait été banni des plus grandes plateformes d'expression en ligne privées du monde, qui plus est toutes Etats-uniennes, a quelque chose de profondément désolant, nul ne peut le nier. Mais en creusant un peu :

  • Est-ce parce que la toute-puissance de compagnies privées, les GAFA, saute enfin aux yeux de tous ? Gageons que cette prise de conscience permettra, dans un dossier pas si éloigné, de mieux faire accepter le RGPD et les enjeux de protection des données. Ou, mieux encore, le déploiement du Digital Services Act dans l'Union Européenne.
  • Est-ce parce que le comportement de Donald Trump, hors des CGU des réseaux sociaux mais aussi de la posture attendue d'un chef d'Etat, déborde tellement du cadre qu'elle conduit à ce triste spectacle ? Pour la première fois, un président américain fait ainsi l'objet d'une deuxième procédure d'impeachment.
  • Est-ce parce que nous confondons, encore une fois, censure et modération ? Dès lors que nous évoluons dans un environnement aux règles claires, la condition sine qua non pour les faire accepter et respecter de tous est bien de ne pas céder aux passe-droits.

 

Cette mise au clair, à l'aide d'un cadre bien défini et surplombant les différentes plateformes pour donner de l'unité à l'ensemble, c'est bien le sens pris par les travaux sur le Digital Services Act, à suivre de près. La question de la modération de la haine en ligne, justement, y paraît actuellement centrale.

 

Vers une concertation publique sur les grandes lignes de modération ?

Que des entreprises privées appliquent leurs règles de modération n'est pas nouveau  c'est même l'une des principales revendications formulées au cours des dernières années. Qu'une décision de modération soit si contestée reste, en revanche, un véritable événement.

On se souvient notamment de la censure d'oeuvres d'art présentant des nus sur Facebook ou, encore, de la grossophobie implicite des algorithmes d'Instagram. On doit aussi se souvenir de tous les moments de la lutte contre la haine en ligne où l'on a déploré le laxisme des plateformes face à des contenus révisionnistes, xénophobes ou néo-nazis... Ou encore du manque de réactivité face aux lives, de la diffusion en Facebook Live de l'attentat islamophobe de Christchurch ou sur Twitch de l'attentat antisémite de Halle. Dans le cas de l'invasion du Capitole, les plateformes ont pris leurs responsabilités. Trop tard, peut-être. Maladroitement, certainement. Hypocritement, cela reste à discuter. Mais auraient-elles pu soutenir de cautionner des contenus séditieux parmi les plus visibles du monde ?

 

Et après ?

Ce n'est certainement pas notre rôle de trancher cette question. Tout juste pouvons-nous trouver :

  1. Logique de voir une modération s'appliquer sans que l'influence ne serve de passe-droit, à une époque de forte contamination des influenceurs par les théories complotistes ;
  2. Constructif de voir tout le monde s'emparer d'un sujet de première importance et en débattre avec, parfois, de délicates contradictions entre considérations personnelles et enjeux collectifs.

 

Peut-être est-ce là le début d'une large prise de conscience et d'une harmonisation des règles, permettant enfin aux GAFA de ne pas disposer de pouvoirs régaliens tout en garantissant une protection contre la tentation d'une censure d'Etat. Nous, qui défendons la vision de commentaires au coeur de la vie citoyenne moderne pour le meilleur et pour le pire et de moyens en rapport avec les enjeux, ne pouvons que nous réjouir d'une prise de conscience à grande échelle.

crossmenuchevron-down linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram