Une nouvelle étude montre que les principaux modèles d’intelligence artificielle ont 1,5 fois plus de risques de qualifier d ‘«offensantes» les tweets écrits par des Afro-Américains.
Des plates-formes telles que Facebook, YouTube et Twitter misent sur le développement d’une technologie d’intelligence artificielle pour aider à enrayer la propagation de discours haineux sur leurs réseaux. L’idée est que les algorithmes complexes qui utilisent le traitement du langage naturel signaleront les discours racistes ou violents plus rapidement et mieux que les êtres humains. Faire cela de manière efficace est plus urgent que jamais à la lumière des récents tirs en masse et de la violence liée au discours de haine en ligne.
Deux nouvelles études montrent toutefois que l’IA formée à identifier le discours de haine peut en réalité amplifier les préjugés raciaux. Dans une étude, des chercheurs ont constaté que les principaux modèles d’IA pour le traitement du discours de haine étaient une fois et demie plus susceptibles de signaler les tweets comme offensants ou haineux lorsqu’ils étaient écrits par des Afro-Américains, et 2,2 fois plus susceptibles de signaler les tweets écrits Afro-américain anglais (qui est couramment parlé par les Noirs aux États-Unis). Une autre étude a mis en évidence des preuves répandues similaires de biais racistes à l’encontre du discours noir dans cinq ensembles de données universitaires largement utilisés pour étudier le discours de haine, qui totalisaient environ 155 800 publications sur Twitter.
Lire la suite : vox.com
En savoir plus sur Notre Quotidien
Subscribe to get the latest posts sent to your email.