bilanPlus de transparence des plateformes pour lutter contre la haine en ligne

Haine en ligne : Plus de transparence des plateformes mais encore des efforts à fournir, selon l’Arcom

bilanLe Règlement européen sur les services numériques (DSA) s’imposera dès le 25 août aux plus grandes plateformes
Une utilisatrice d'ordinateur.
Une utilisatrice d'ordinateur. - Clément Follain / 20 Minutes / 20 Minutes
20 Minutes avec agences

20 Minutes avec agences

Du mieux. Les grandes plateformes en ligne telles que Facebook, TikTok ou Twitter, font preuve d’un « effort de transparence » sur leurs moyens dédiés à la lutte contre les discours de haine, mais ont encore du travail pour respecter les nouvelles règles européennes, a affirmé ce lundi le gendarme français du numérique.

« Toutes les plateformes ont changé de braquet. (…) Nous constatons des signaux avancés de mise en conformité » avec le Règlement européen sur les services numériques (DSA), qui s’imposera dès le 25 août aux plus grandes plateformes, a déclaré lors d’une conférence de presse lundi Benoît Loutrel, membre du collège de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Toutefois, « tout ne sera pas prêt à cette date », a ajouté le haut fonctionnaire (précédemment passé par Google France).

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

Un délai avant la mise en œuvre du règlement

L’autorité française fait partie des coordinateurs européens chargés de faire respecter le texte. « L’heure de vérité va sonner très vite. Il en va de la crédibilité même du règlement » et de la Commission européenne, a expliqué son président Roch-Olivier Maistre. Mais, selon lui, les sanctions prévues par le texte - jusqu’à 6 % du chiffre d’affaires annuel mondial - ne seront pas prononcées immédiatement. « On peut penser qu’il y aura quand même une phase un petit peu intermédiaire dans la mise en œuvre du règlement », a-t-il indiqué.

L’autorité renforce actuellement ses équipes dédiées qui atteindront « 18 emplois d’ici la fin de l’année 2023 », a-t-il précisé, et elle auditionne des associations qui deviendront « signaleurs de confiance » sur les plateformes, à l’horizon février 2024. Pour la première fois, l’autorité a obtenu auprès de onze plateformes interrogées des réponses portant sur le nombre de modérateurs, leur localisation ou leur langue de travail, ainsi que sur le sort des contenus signalés par les utilisateurs.

Des efforts difficiles à mesurer

Aucun référentiel n’étant en place, les comparaisons entre plateformes sont impossibles, et l’Arcom ne s’est pas risquée à déterminer si les efforts consentis étaient suffisants pour endiguer la diffusion des contenus toxiques. Plusieurs entreprises, dont Pinterest, LinkedIn et Meta ont, de plus, communiqué leurs données de manière confidentielle. Elles n’apparaissent donc pas dans le rapport de l’Arcom. Yahoo, Microsoft ou Wikipédia estiment aussi ne pas être concernés par tout ou partie du questionnaire.

Certains chiffres posent aussi question. TikTok affirme notamment que 40 % des décisions de ses modérateurs sont invalidées lors d’un deuxième examen. « Un tel taux interroge sur la pertinence de la modération initiale », selon le régulateur. Enfin, les plateformes doivent prendre garde à ne pas offrir aux cyberharceleurs un moyen trop efficace de mener des « raids numériques » à travers des campagnes de signalements abusifs.