Google veut renforcer son équipe de modération, après avoir essuyé plusieurs polémiques sur les contenus destinés aux enfants sur YouTube, sa plate-forme de vidéos. / MIKE BLAKE / REUTERS

Après les récentes polémiques relatives aux contenus destinés aux enfants sur YouTube, sa directrice générale, Susan Wojcicki, s’est fendue, lundi 4 décembre, d’une nouvelle note de blog pour tenter de rappeler les efforts de la plate-forme en matière de modération, et notamment convaincre plusieurs annonceurs qui ont retiré leurs campagnes publicitaires.

Dans ce billet, Mme Wojcicki explique qu’« en 2018, nous souhaitons faire monter à 10 000 le nombre de personnes chargées chez Google de lutter contre les contenus susceptibles de violer nos politiques ». Un chiffre qui apparaît particulièrement intéressant, notamment parce que Google, qui détient YouTube, n’a pas pour habitude de divulguer l’état de ses effectifs en matière de modération. L’entreprise se garde toutefois de préciser combien de personnes composent aujourd’hui cette équipe, et ne donne aucun détail sur le statut de ceux qui la composeront. S’agira-t-il de salariés de Google, de sous-traitants ? Seront-ils basés aux Etats-Unis ou dans différents pays du monde ?

« Il est essentiel pour nous d’avoir recours à des modérateurs humains pour retirer les contenus inappropriés et entraîner nos systèmes d’apprentissage automatique », insiste la directrice générale de YouTube, qui défend toutefois en priorité l’algorithme censé modérer les contenus. Déployée depuis juin, « cette technologie a permis d’examiner et de signaler un volume de contenus qui aurait nécessité 180 000 personnes travaillant quarante heures par semaine pour le même résultat. » S’ils se sont concentrés sur les contenus violents pour entraîner leur système de détection, les modérateurs se penchent désormais sur les contenus décriés adressés aux enfants ainsi que les vidéos d’incitation à la haine.