Regard d'experts

Médias sociaux : vers davantage de modération ?

Le rôle joué par les réseaux sociaux, leurs impacts et responsabilité sociale sont plus que jamais au cœur de l’actualité. En particulier, la question du contenu que l’on retrouve sur des plateformes comme celles de Meta (Facebook), Twitter ou Youtube est devenue centrale, tant les impacts négatifs des discours haineux, complotistes ou racistes sont devenus visibles et importants.

La crise sanitaire et la guerre en Ukraine en sont de parfaits exemples. Le (potentiel) rachat de Twitter par le fantasque milliardaire Elon Musk ravive les discussions sur ce thème et soulève quelques inquiétudes sur la manière dont l’entreprise entend notamment gérer la liberté d’expression sur sa plateforme. La promotion acharnée du libertarisme par le multimilliardaire reflète une liberté d’expression absolue avec le minimum d’autorégulation. Cette vision que l’on retrouve plutôt de l’autre côté de l’Atlantique s’inscrit dans l’esprit du premier amendement de la Constitution américaine consacré à la défense de la liberté d’expression. A l’inverse, en Europe, la défense de la liberté d’expression sur les réseaux sociaux va de pair avec la sauvegarde d’autres droits humains, dont notamment le droit à ne pas être discriminé. C’est dans ce sens que va le « Digital Services Act », la nouvelle régulation présentée par la Commission Européenne en février 2022 (qui rentre en vigueur début 2023) : les grandes plateformes comme Facebook, Instagram, Twitter ou TikTok devront démontrer sérieusement qu’elles luttent en Europe contre les discours d’incitation à la haine, la désinformation, les atteintes aux mineurs, etc. Les médias sociaux auront aussi l’obligation d’être transparents sur les algorithmes utilisés pour classer ou recommander des contenus.

Le discours de haine en ligne et ses effets sur la société

La dernière réglementation du numérique en Europe datait du début des années 2000, aux balbutiements du numérique. Entretemps, les médias sociaux, à travers le contenu qu’ils partagent et diffusent auprès de centaines de millions d’abonnés, sont devenus des géants numériques avec un pouvoir d’influence considérable sur leurs utilisateurs et sur la société au sens large du terme. L’impact de plateformes comme TikTok sur la santé mentale des jeunes utilisateurs est désormais connu et documenté (anxiété, dépression, mauvaise estime de soi, etc.). L’influence des plateformes pour faire ou défaire des élections ou orienter des votes (élections américaines de 2016 et vote sur le Brexit) a également fait l’objet de nombreuses études. Quant aux messages de haine ou de harcèlement en ligne, ils se sont multipliés ces dernières années, notamment dans le contexte anxiogène de la pandémie. Selon un sondage effectué en 2021, 41% des Américains déclarent avoir subi une forme de harcèlement en ligne, lié pour une majorité à leur orientation sexuelle, leur religion, ou leurs origines[1]. Outre les conséquences sur l’individu, les discours et des images de haine contribuent aussi à discriminer des minorités et à mettre en danger la société. C’est le cas, par exemple, des vidéos de l’attentat contre des mosquées de Christchurch, en Nouvelle Zélande, qui a provoqué 51 morts en 2019. Avant d’être finalement retirées de YouTube, ces vidéos ont eu le temps de faire leur effet. Au Myanmar, le gouvernement a utilisé Facebook pour diffuser de la propagande contre la communauté musulmane Rohingya. En Allemagne, des posts de l’extrême droite allemande sur Facebook ont été associés de manière explicite à des attaques physiques contre des réfugiés.

 

[1] Online Hate and Harassment: The American Experience 2021, ADL Center for Technology & Society, https://www.adl.org/online-hate-2021

Le modèle d’affaires des médias sociaux attise le risque

Que cela soit en termes de politiques éditoriales ou de contrôle des contenus - via l’intelligence artificielle ou le travail de modérateurs - , les mesures de modération prises par Twitter ou Facebook vont dans le bon sens mais demeurent insuffisantes[2]. Il a fallu, par exemple, attendre 2020 pour que Twitter suspende le compte d’un des leaders du Klux Klux Klan, David Duke, qui l’a utilisé pendant dix ans pour distiller ses messages antisémites et racistes. L’une des raisons principales de cette insuffisance renvoie au modèle d’affaires des médias sociaux. La collecte de données individuelles, via ces plateformes, et leur vente à des tiers à des fins publicitaires est l’objectif principal – davantage que celui de la promotion d’une place publique globale promouvant la libre parole. Les médias sociaux utilisent des algorithmes qui alimentent un certain public de contenus polémiques et haineux. Ce même public, grâce à leurs données individuelles, constituant une large cible en matière publicitaire, les plateformes n’ont donc aucun intérêt commercial à s’autocensurer. En outre, comme mentionné plus haut, les mesures prises restent volontaires et diffèrent d’une entreprise à l’autre.

 

[2] En 2019, Mark Zuckerberg annonçait que 5% des revenus de Facebook étaient consacrés à la modération, soit USD 3.7 milliards.

Un risque également pour les investisseurs

Les problèmes liés aux violations des droits de l’homme et à la « Social License to Operate » – ou acceptation sociale des entreprises - étaient traditionnellement associés à des industries lourdes, comme l’industrie minière, ou à des secteurs avec une chaîne d’approvisionnement large et complexe, comme le secteur de la mode ou l’agroalimentaire. Aujourd’hui, l’analyse ESG des droits de l’homme, menée par les investisseurs responsables, s’étend aux géants de la Tech et à leurs réseaux sociaux. Elle examine notamment la question du contenu et pointe de gros risques tant éthiques, financiers que réglementaires, mettant potentiellement en danger leur valeur à long terme. Rappelons qu’avec sa nouvelle loi, l’UE pourra infliger des sanctions allant jusqu’à 6% de leur chiffre d’affaires, voire les interdire. Déjà sur la sellette pour des problèmes de comportements anti-compétitifs, de confidentialité et de sécurité de données privées, les médias sociaux doivent désormais être clairs sur leur engagement à lutter contre la haine en ligne et surtout les mettre en œuvre. Cette tâche, essentielle pour maintenir leur légitimité, ne sera pas évidente au vu d’une autre responsabilité importante qui leur incombe : maintenir la liberté d’expression face aux velléités de censure de certains gouvernements. A ce sujet, certains experts avancent l’idée intéressante d’une instance de modération mondiale neutre, ni publique, ni privée, établissant les mêmes standards pour toutes les plateformes et qui impliqueraient ces mêmes plateformes dans la définition de ces bonnes pratiques.

 

Auteur

Simon Perrin

Spécialiste Investissement Responsable

Envoyer un message

INVESTISSEMENT SOCIALEMENT RESPONSABLE

Pour en savoir plus sur notre approche ISR.

Go to page