Économie

Après avoir privilégié les algorithmes pour modérer le contenu, YouTube recule

Onze millions de vidéos supprimées entre avril et juin, soit deux fois plus que d’habitude: c’est ce qui s’est passé lorsque YouTube a décidé de donner plus d’espace aux algorithmes dans son système de modération, a déclaré la société. à Financial Times, Dimanche 20 septembre. Elle a décidé de rentrer.

En mars, alors que la pandémie prenait de l’ampleur, le géant américain de l’hébergement vidéo (appartenant à Google) a annoncé qu’il renvoyait chez lui certains de ses modérateurs humains et qu’il le ferait. renforcer l’utilisation de logiciels pour effectuer certaines de leurs tâches. Normalement, ces programmes d’intelligence artificielle (IA) « Aidez à détecter le contenu potentiellement problématique et envoyez-le à des modérateurs humains pour examen », puis a écrit YouTube.

Pour atténuer la désorganisation liée au confinement, la plateforme a décidé de leur donner plus de pouvoir pour supprimer plus de vidéos. « Sans vérification humaine ». Le résultat: une énorme augmentation du nombre de vidéos supprimées, certaines par erreur. Au total, 160 000 vidéos ont été remises en ligne après contestation, soit la moitié des demandes de réexamen reçues par l’entreprise. Normalement, seulement 25% des vidéos dont la suppression est contestée sont remises en ligne.

Les humains «prennent des décisions plus nuancées»

YouTube n’est pas la seule entreprise à avoir donné plus de place à ces programmes informatiques dans son système de modération: Twitter et Facebook ont ​​annoncé des mesures similaires au même moment.

La question du rôle de l’IA dans la modération des contenus fait depuis longtemps l’objet de débats. Alors que les grandes plates-formes subissent une pression énorme pour améliorer leur système de modération, elles misent sur l’IA pour rendre ces opérations plus rapides et plus efficaces. « A terme, développer des outils d’intelligence artificielle sera le meilleur moyen d’identifier et de se débarrasser de ce contenu dangereux à grande échelle », a par exemple assuré Mark Zuckerberg, le patron de Facebook, lors de ses auditions mouvementées devant le Congrès américain en 2018.

READ  Automobile: comparez les prix des contrôles techniques près de chez vous

Une vision qui n’est pas partagée par tous, avec une IA incapable de «comprendre» toutes les subtilités du discours humain – et il n’y a aucune preuve qu’il en sera jamais ainsi. En profitant de la pandémie pour expérimenter à plus grande échelle, YouTube a pu constater que ces machines n’étaient, en effet, pas prêtes à assumer un rôle aussi important.

Neal Mohan, l’un des dirigeants de YouTube, a rappelé à Financial Times qu’ils étaient cependant très efficaces pour détecter très rapidement les vidéos potentiellement problématiques:

«Plus de 50% de ces 11 millions de vidéos ont été supprimées sans générer de vues utilisateur, et 80% ont été supprimées avec moins de 10 vues. C’est la puissance des machines. « 

Sauf que ces machines, lorsqu’elles repèrent du contenu, ne prennent pas toujours la bonne décision sur leur sort. C’est là que les modérateurs humains sont les meilleurs. « Ils prennent des décisions plus nuancées, en particulier lorsqu’il s’agit de discours haineux, de désinformation médicale ou de harcèlement », assure Neal Mohan. YouTube a donc décidé de confier à nouveau à ses modérateurs les tâches exceptionnellement réalisées pour eux par les machines ces derniers mois.

Un ancien modérateur dépose une plainte

Les modérateurs humains sont donc loin d’être considérés comme obsolètes par ces entreprises, qui ont considérablement gonflé leurs équipes ces dernières années. Mais ce travail n’est pas facile: confrontés à des images terribles, ils peuvent subir de lourdes conséquences psychologiques.

Le lundi 21 septembre, un ancien modérateur de YouTube a déposé une plainte contre l’entreprise, après avoir développé un stress post-traumatique, pouvons-nous lire dans sa plainte. Elle accuse l’entreprise de ne pas avoir fait ce qu’il fallait pour la protéger. Ce procès pourrait se transformer en action collective si d’autres modérateurs se joignent. Facebook a été la cible d’une action collective, lancée en 2018, qui a finalement réuni 11 250 modérateurs. L’entreprise s’est engagé en mai à leur verser 900 à 46.000 euros de dédommagement.

READ  La France taxera les géants de la technologie en décembre, annonce Le Maire
Article réservé à nos abonnés Lire aussi Meurtres, pornographie, racisme… Dans la peau d’un modérateur Facebook

Yseult Sauveterre

"Fier lecteur. Troublemaker. Gamer. Organisateur. Créateur total. Fanatique de bière."

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer