11.4 C
Paris
AccueilTechnologieComment cette modération tente de filtrer cette face sombre des réseaux sociaux

Ne manquez pas cette occasion

Comment cette modération tente de filtrer cette face sombre des réseaux sociaux

Désinformation, cyberharcèlement, images ultra-violentes, pédopornographie… Autant de faces sombres des réseaux sociaux que la modération est censée filtrer. Car qui dit liberté d’expression sur internet, dit itou dérives en ligne. La modération repose sur le respect des législations nationales et internationales et des codes propres à chaque plateforme. Les médias, comme franceinfo, ont itou leur propre charte déontologique édictant les règles à respecter quand on s’exprime sur internet.

à lire itou

Modération sur les réseaux sociaux : « Il ne faudrait pas déléguer l’analyse des contenus aux seules plateformes », préconise Nicolas Arpagian

Concrètement, la modération s’appuie de plus en plus sur des intelligences artificielles chargées de retirer automatiquement les contenus indésirables. Les plateformes comptent itou sur leurs utilisateurs pour signaler ces contenus. En dernier recours, des humains interviennent pour trier, accepter ou supprimer à la main. Cette modération humaine est généralement confiée à des sous-traitants, comme Atchik, l’un des leaders français, où Sami Mauzi travaille en tant que modérateur : « C’est ultra-nécessaire de prendre du recul. Effectivement, on lit des messages qui peuvent être violents, racistes, etc. Mais au final, c’est itou pour la bonne cause. C’est-à-dire que l’idée, c’est qu’il n’y ait prochain qui vous menace, prochain qui publie des contenus illicites. On est censé être les seuls à les voir. Ça permet que ça ne traîne pas sur les réseaux sociaux, que ça n’influence pas d’autres gens ou ça ne mène pas à des situations plus critiques que simplement des insultes. Donc au final, on se sent utile. »

Un manque de transparence

Sami Mauzi estime être un modérateur chanceux, il n’a à modérer que des contenus textuels, pas comme pour Facebook. Dans le documentaire Les nettoyeurs du web d’Arte, des modérateurs philippins racontent qu’ils regardent en boucle les pires images. Une modératrice de Facebook a même fini par porter plainte pour stress post-traumatique en 2018. Malgré cela, les réseaux restent très opaques sur leur modération, regrette Xavier Degraux, consultant et formateur en réseaux sociaux à l’université de Liège en Belgique : « On voit qu’il y a des contextes insuffisamment sécurisés, il y a des gros problèmes de manipulation des foules itou et des problèmes de transparence des règles propres à chaque plateforme », relève-t-il.

« En réalité, il y a toujours une, deux ou trio guerres de retard entre les régulateurs, les plateformes et ceux qui les utilisent de manière déplacée. »

Xavier Degraux, consultant en réseaux sociaux

à franceinfo

Les plateformes ont fini par devoir communiquer sur leurs modérateurs, après l’opération transparence lancée l’été dernier par l’Union européenne. Avec timbre « Digital Service Act » (DSA), le règlement européen sur les services numériques en français, elle cherche à mieux réguler les réseaux sociaux. Avec un modérateur humain pour 22 000 utilisateurs, Tik Tok s’en sort le mieux, relève Xavier Degraux. Pour Facebook et Instagram, au sein de Meta, il y a un modérateur pour 240 000 utilisateurs. Pour X (ex-Twitter), on trouve un modérateur pour 120 000 utilisateurs, alors qu’Elon Musk a réduit l’équipe de modération à timbre arrivée.

X s’est fait rattraper sur ce sujet fin décembre. L’Union européenne a ouvert une enquête pour violation du DSA, insuffisance de modération et hébergement de contenus illégaux. Le réseau d’Elon Musk, chantre de la liberté d’expression, risque une amende pouvant rejoindre 6% de timbre chiffre d’affaires, voire d’être banni de l’Europe.

leer también