YouTube passe à l’action. A la suite d’une polémique sur la gestion de ses contenus, la plateforme vidéo de Google prévoit d’augmenter le nombre d’employés affectés à la modération du site, a annoncé lundi l’entreprise dans un billet de blog. YouTube compte ainsi porter à 10’000 le nombre de modérateurs en 2018 afin de s’assurer que des contenus enfreignant ses règles ne puissent pas être visionnés par les utilisateurs.
Susan Wojcicki, patronne de l’entreprise, met en avant les «progrès énormes» effectués par les algorithmes d’apprentissage automatique déployés en juin sur sa plateforme pour lutter contre les contenus extrémistes et violents. Ce système de modération automatique sera utilisé de manière plus étendue, annonce-t-elle. Elle permet aux modérateurs humains de supprimer cinq fois plus de vidéos qu’auparavant. Autour de 98% des vidéos supprimées pour cause d’extrémisme violent sont signalées par ce système de «machine learning» (apprentissage automatique). Ce dernier permet de retirer le 70% de tels contenus dans les huit heures suivant leur publication et près de la moitié en deux heures, précise encore la directrice générale de YouTube.
La semaine dernière, YouTube avait supprimé plusieurs centaines de comptes et plus de 150’000 vidéos qui posaient problème, à la suite d’un article du quotidien britannique «The Times». Le journal affirmait que des publicités pour de grandes marques apparaissaient sur YouTube à côté de vidéos d’enfants ou d’adolescents suscitant des commentaires d’usagers à caractère pédophile.
C’est la deuxième fois cette année que YouTube fait face à ce type de polémique. Au printemps, après un article du «Times» affirmant que des publicités étaient placées près de contenus antisémites, incitant à la haine ou faisant l’apologie du terrorisme, Google avait déjà promis qu’il s’assurerait que les publicités de ses annonceurs ne soient pas placées près de contenus polémiques.
Source : 20min.ch
En savoir plus sur Notre Quotidien
Subscribe to get the latest posts sent to your email.