Le site britannique a révélé le contenu de documents internes qui détaillent, pour les modérateurs de Facebook, ce qui est acceptable ou non.

Comment gérer des publications à caractères haineuses, terroristes, pornographiques ou dangereuses lorsque l’on est modérateur chez Facebook? Dans certains cas, comme les abus sur des enfants, ou le terrorisme, des systèmes automatisés suppriment le contenu automatiquement. Pour le reste, cela tombe entre les mains de modérateurs. Pour eux, c’est un immense casse-tête en perspective, car ils sont là pour déterminer ce qu’ils doivent laisser ou non. Le Guardian semble tenir une partie de la réponse: le site britannique a pu consulter une centaine de manuels d’instruction, documents et infographies, et a publié un dossier complet sur le sujet.
«Ils montrent les difficultés auxquelles font face les dirigeants de Facebook qui tâtonnent pour réagir à de nouveaux défis comme le “revenge porn” –et les défis auxquels font face les modérateurs, qui indiquent être submergés par le volume de travail, ce qui explique qu’ils n’ont souvent “que dix secondes” pour prendre une décision.»
De nombreux modérateurs sont inquiets, souligne le Guardian, à propos de l’incohérence «et de la nature de certaines des politiques. Les contenus à caractère sexuel, par exemple, font partie des plus complexes et troublants».
Il y aura «toujours des zones d’ombre»
En ce qui concerne la violence, indique The Verge, les consignes de Facebook demandent aux modérateurs de faire la différence entre les utilisateurs qui passent leurs nerfs sur le réseau social, et ceux qui sont vraiment en train de menacer quelqu’un «en pointant vers différents exemples de publications contenant des menaces spécifiques, des moments particuliers, et des méthodes qui doivent recevoir la priorité par rapport aux autres».
«Il y a cependant d’importantes zones d’ombre. Les directives du site indiquent que les “photos et vidéos documentant la maltraitance d’animaux” sont autorisées à des fins de sensibilisation. Si le site ne traite pas les images de maltraitance infantile, les vidéos sont, elles, marquées comme “dérangeantes”. Les publications d’utilisateurs qui tentent de se faire du mal sont également autorisées, parce que Facebook “ne veut pas censurer ou punir des personnes en détresse qui tentent de se suicider”.»
Contacté par le Guardian, Monika Bicker, directrice de la politique des contenus de Facebook, explique qu’avec deux milliards d’utilisateurs, représentant des cultures bien différentes, il est compliqué de parvenir à un consensus pour savoir ce que l’on peut autoriser ou non, et que par conséquence, il y aura «toujours des zones d’ombre».
Pour tenter le coup et savoir ce que les modérateurs doivent garder ou censurer, vous pouvez essayer de répondre aux questions de ce quiz bien plus difficile qu’il n’y paraît.
Facebook a récemment annoncé qu’il allait embaucher 3.000 nouveaux modérateurs. Des censures aux absences d’actions (ou trop tardives), le site est régulièrement critiqué pour sa modération.
source : Slate