
Le 15 novembre 2018 dernier, Mark Zuckerberg a annoncé diverses mesures pour endiguer la publication de contenus illégaux sur son réseau social. Parmi elle, la « cour d’appel ». Est-ce à contribuer à en finir avec les contenus haineux et illégaux ? La modération de contenu de Facebook est-elle fiable ? Pas tout à fait selon nous.

Les origines de la « cour d’appel » de Facebook
Ce qu’il faut savoir avant tout, c’est que la modération de contenu sur Facebook n’est pas à 100% humaine. La firme de Mark Zuckerberg utilise l’intelligence artificielle pour détecter et filtrer les contenus controversés ou ceux signalés par les utilisateurs. Toutefois, cette technique de modération par l’intelligence artificielle a ses failles que Facebook souhaite combler.
Ainsi, le 15 novembre dernier, Mark Zuckerberg officialise la mise en place d’une « cour d’appel », une sorte de tribunal pour statuer sur les cas de contenus illégaux et controversés. Cette entité serait totalement indépendante de Facebook.
À l’origine de la mise en place de cette « cour d’appel » : les révélations du New York Times sur la collaboration entre Facebook et une société de relations publiques réputées pour ses méthodes peu orthodoxes. Facebook a été dénoncée dans la campagne de dénigrement du financier George Soros.
Avec cette nouvelle structure de modération, Facebook souhaite ainsi redorer son blason et en finir avec les polémiques. Selon toujours Mark Zuckerberg et son équipe, la capacité de la firme à gérer – plus efficacement et rapidement – les messages haineux et illégaux a été reconsidérée.
A lire aussi > Un journaliste infiltré au coeur de la modération de Facebook
La modération sur Facebook en quelques chiffres
Lors de cette annonce, le fondateur de Facebook a aussi dévoilé quelques chiffres concernant la modération des contenus sur son réseau social. D’avril à septembre 2018, les modérateurs – et les robots – de Facebook ont désactivé près de 1,5 milliard de comptes. Ces comptes ont été détectés ou signalés pour leur contenu haineux, raciste, violent ou pornographique.
Une « cour d’appel » indépendante ?
Jusque-là, Facebook n’a pas dévoilé la composition de sa « cour d’appel ». L’on ne sait pas non plus sur son degré d’indépendance. Selon les informations communiquées, l’instance sera mise en place dès le début de l’année 2019.
Des questions se posent également :
- Comment la cour va être organisée ?
- Quel est le processus pour engager une action ?
- Qui peut engager une action auprès de la cour ?
- La cour se basera-t-elle avec les codes de conduite de Facebook ou avec la loi ? Ou les deux ?

A lire aussi > Modérateur de contenu web : un métier pénible
Pour une modération plus « juste »
Jusqu’ici, Facebook reste toujours flou sur sa politique de modération. Certains comptes ou contenus qui devaient être modérés ne le sont pas. Et vice-versa.
Une entreprise doit par contre gérer au mieux sa relation client sur Facebook. Elle doit aussi soigner son e-réputation. Elle fait ainsi intervenir un ou plusieurs community managers avec une équipe de modérateurs. Et ce, pour la simple raison que la modération sur Facebook est aléatoire. Une modération en interne permet alors de garantir que les contenus mis en ligne sur une entreprise ou une marque soient bien conformes. Il faut aussi considérer que les robots de Facebook et ses modérateurs ne considèrent pas les seconds degrés, l’humour, les subtilités culturelles…
Ainsi, même si Facebook va instaurer sa propre « cour d’appel », une entreprise a toujours besoin de son propre dispositif de modération.