
L’attentat de Christchurch – Nouvelle-Zélande, le 15 mars 2019 dernier a choqué plus d’un. Les raisons : l’acte terroriste a été diffusé en direct sur Internet par son auteur et les responsables des médias sociaux n’ont pas réagi pour supprimer la vidéo de 17 minutes. Ce n’est que quelques heures après que les réseaux sociaux ont réagi pour effacer les vidéos de la tuerie. Par exemple, Facebook affirme avoir supprimé dès de 1,5 million de vidéos.
Vidéos de l’attentat de Christchurch : état des lieux
Après la diffusion en direct de l’attentat contre 2 mosquées de Christchurch qui a fait près de 50 mots, Facebook a supprimé près de 1,5 million de vidéos. Selon Mia Garlick, responsable de Facebook en Nouvelle-Zélande, donne le chiffre de 1,2 million de téléchargements bloqués de la vidéo. Selon ses dires, Facebook déploie 24h/24 des moyens humains et technologiques pour effacer ces contenus contraires aux standards. Et Facebook va plus loin : les vidéos modifiées du carnage sont aussi supprimées, et ce par respect aux personnes victimes de cette tragédie. Le compte de l’auteur de l’attentat a été aussi supprimé.
Manque de réactivité
Beaucoup ont réagi face au manque de réactivité des médias sociaux et aux failles dans la modération de contenu. Au moment de la fusillade, le tireur a utilisé l’application LIVE4 pour diffuser son acte. Cette application permet de partager sur les réseaux sociaux les images captées depuis une caméra portative. Un partage instantané sur les réseaux sociaux comme Facebook, Twitter et YouTube est aussi possible avec cette appli, ce qui a permis à la vidéo d’avoir une viralité sans précédente.
La vidéo de 17 minutes a été diffusée dans son intégralité et avec des milliers de téléchargements et de partages, la vidéo a été en ligne pendant des heures.
A lire aussi > Les dessous de la modération de Facebook découverts par un journaliste infiltré

Les réseaux sociaux, une tribune libre pour les extrémistes
Les réseaux sociaux ont poussé les limites de la liberté d’expression. Tout le monde peut véhiculer plus aisément ses idées et ses opinions. Mais le revers de la médaille existe également. Les extrémistes font aussi de ces plateformes une tribune pour véhiculer leurs idéologies haineuses.
Malheureusement, les réseaux sociaux peinent à endiguer ce fléau, surtout s’il y a une diffusion en direct. Et c’est le cas dans cet attentat à Christchurch.
D’après un des responsables de VideoGorillas, l’entreprise qui a créé LIVE4, contrôler en temps réel les diffusions en direct relève de la « mission impossible ». La responsabilité sur les contenus diffusés en streaming appartient à celui ou celle qui les a publiés.
Facebook : 7500 modérateurs en 2018
En 2018, Facebook compte 7500 modérateurs pour examiner les contenus publiés par 2 milliards d’utilisateurs actifs par mois. Ces modérateurs travaillent sur une centaine de langues.
La modération sur Facebook se base surtout sur le signalement des internautes et normalement, un contenu non conforme, est supprimé sous 24 heures. C’est sans doute à cause du faible effectif de l’équipe de modérateurs de Facebook que la vidéo de la tuerie a pris du temps pour être supprimée.
Nous espérons que les réseaux sociaux, et notamment Facebook, ont tiré une leçon de ce scandale en mettant un processus pour modérer plus rapidement les vidéos en direct.