(AFP) – Critiqué pour être parfois trop zélé dans la suppression de photos, vidéos ou textes qu’il juge obscènes ou violents, Facebook a promis mardi 14 avril qu’il serait possible pour les utilisateurs de “faire appel” de ces décisions.
Engagé depuis des semaines dans une vaste opération de communication destinée à redorer une image ternie par le scandale Cambridge Analytica, le réseau social a décidé de rendre publics pour la première fois les critères de suppression de certains contenus. “Et pour la première fois, nous vous donnons le droit de faire appel de nos décisions sur les “posts”, de façon à ce que vous puissiez demander un deuxième avis si vous pensez que nous avons fait une erreur”, a expliqué à l’AFP Siobhan Cummiskey, responsable de ce dossier au sein du groupe américain. Cela sera mis en place dans le courant de l’année et concernera dans un premier temps la nudité, le sexe, les appels à la haine ou la violence visuellement explicite, a-t-elle précisé.
Jusqu’ici, les usagers pouvaient faire appel des suppressions de profils ou de pages mais pas de “posts” individuels. Mi-mars, Facebook a reconnu “une erreur” après avoir temporairement censuré une publicité représentant le tableau “La Liberté guidant le peuple” du peintre Eugène Delacroix, où une femme aux seins nus brandit un drapeau
français. Il avait aussi été très critiqué pour avoir fermé le compte d’un
utilisateur qui avait publié une photo du tableau “L’Origine du monde” de Gustave Courbet, représentant un sexe féminin. En 2016, il avait dû s’excuser pour avoir retiré une vidéo de
sensibilisation sur le cancer du sein ou encore pour avoir censuré la célèbre photo d’une petite Vietnamienne nue brûlée au napalm, au nom de sa politique contre la nudité des enfants.
Facebook, comme Google ou Twitter, est pris dans un dilemme car il est à la fois critiqué pour ne pas assez lutter contre les contenus problématiques (fausses informations, terrorisme…), mais il est aussi accusé de censure lorsqu’il décide de supprimer certains contenus. D’ailleurs, lundi, Facebook a indiqué avoir “pris des mesures” – de suppression la plupart du temps – au premier trimestre concernant 1,9 million de contenus
liés aux organisations Etat islamique ou Al-Qaïda, deux fois plus que lors du
trimestre précédent.