Il n’est jamais de bonne augure de tomber sur la photo d’un cadavre criblé de balles et baignant dans une coulée de sang; sur des messages textuels de type injurieux; ou encore sur des vidéos choquantes liées à des scènes pornographiques ou d’enlèvement. Pourtant, ce sont des pratiques devenues bien trop courantes sur les réseaux sociaux compte tenu de la facilité à laquelle un simple utilisateur peut partager une image sur son profil sans y être réellement contraint. Face à cet état de fait, comment peut-on avoir la main mise sur de telles pratiques pour empêcher que des contenus indécents deviennent viraux et choquent le plus grand nombre d’utilisateurs?

Une plateforme telle que Facebook mets en place plusieurs garde-fous comme l’Intelligence Artificielle (IA) et des employés spécialisés pour freiner la propagation des publications douteuses dans les fils d’actualité. Si cette mesure semble, en effet, entrer en vigeur, son efficacité, néanmoins, interpelle tout le monde. Pourquoi les réseaux ne suppriment pas systématiquement ces contenus au lieu de simplement les « masquer ou de les afficher sous approbation » ?

Des mesures sur mesure?

Le système de suppression des contenus fonctionne de deux manières: d’une part, l’IA masque les images sensibles (comme les images de cadavres où il y a du sang) et permet de les visionner après approbation; d’autre part, les employés spécialisés (une staff d’environ 15 000 personnes) suppriment les contenus indésirables qui ont été signalés par les utilisateurs. Cependant, en aucun cas Facebook ne peut supprimer une publication sans qu’elle ait été signalée par différents utilisateurs. Aussi, il faut toute une série de démarches et de procédures pour retirer les contenus inapropriés. Ce qui rend la tâche d’autant plus difficile car cela porte également au droit de l’utilisateur de partager tout ce qu’il veut.