
YouTube est dans la tourmente. La plateforme vidéo de Google a vu ses annonceurs claquer la porte. La raison : la prolifération d’annonces pédophiles sur le média social. Ainsi, Mars, Lidl ou encore Adidas ont retiré leurs publicités. Il est à noter qu’en mars 2018, de grands annonceurs ont déjà boycotté YouTube après la mise en ligne de milliers de commentaires faisant apologie du terrorisme. Qu’en est-il donc de la modération des commentaires sur YouTube ?

Tout d’abord : l’origine du mal
Des vidéos avec des scènes d’enfants dans la vie quotidienne ont été mis sur YouTube. Après quelques heures de publication, les commentaires à caractère sexuel ont apparu. C’est le Times qui a tiré la sonnette d’alarme. N’ayant pas froid aux yeux, certains commentateurs étaient très explicites en évoquant le corps des enfants. L’enquête a aussi révélé des liens pointant vers des sites pédophiles.
La réaction des annonceurs ne se faisait pas attendre, car leurs publicités étaient affichées à côté de ces commentaires illégaux. Voici par exemple le communiqué de Mars : « Nous sommes choqués et horrifiés de voir nos publicités accolées aux côtés de contenus abusifs et inappropriés… Nous avons pris la décision de suspendre immédiatement toute notre publicité en ligne sur YouTube. » Résultat : YouTube perd des annonceurs.
A lire aussi > Le télétravail : une aubaine pour les entreprises
YouTube : pour une modération plus ferme
Il est à noter que comme la modération de contenu sur Facebook, YouTube utilise aussi l’intelligence artificielle pour filtrer les commentaires. Toutefois, face à une anomalie, YouTube donne une marche de manœuvre au public de « notifier » les modérateurs concernant les contenus inappropriés. Les modérateurs prennent ensuite des « bons » verdicts : supprimer ou non. Pourtant, selon une enquête de la BBC, signaler les contenus [et commentaires] non conformes n’aurait été possible que sur une courte période… à cause d’un bugg technique.
Après le scandale, YouTube affirme avoir adopté les mesures nécessaires pour « renforcer » la modération afin de bannir les contenus illicites. Parmi elles, la plateforme vidéo de Google s’est engagée à clore les commentaires sur les vidéos de mineurs dès la publication d’une réaction à caractère sexuel.

La modération : essentielle sur les médias sociaux
Il ne s’agit pas du premier scandale rencontré par un média social. Twitter et Facebook ont déjà fait face à ce problème d’absence de modération de contenu.
Une entreprise qui utilise les médias sociaux doit disposer d’une cellule de modération opérationnelle 24h/24 et 7 jours/7. Et ce, pour contrôler la publication d’éventuels de contenus illégaux : haineux, racistes, pédophiles, antisémites… Étant donné que cette opération nécessite un budget – plus ou moins – conséquent, de plus en plus de sociétés se tournent vers des pays « low cost » pour réduire les coûts. Des pays comme le Sénégal, le Viet Nam ou encore Madagascar sont par exemple des destinations pour externaliser la modération de contenu.