Menu

Facebook, YouTube et Twitter avertissent que les systèmes d’IA pourraient faire des erreurs

18 mars 2020 - Technologies
Facebook, YouTube et Twitter avertissent que les systèmes d’IA pourraient faire des erreurs


Logo Open Source

Un jour après que Facebook a annoncé qu’il s’appuierait plus sur la modération du contenu basée sur l’intelligence artificielle, certains utilisateurs se plaignent que la plate-forme fait des erreurs et bloque une multitude de publications et de liens légitimes, y compris des articles avec des articles de presse liés à la pandémie de coronavirus et les signaler comme spam.

Tout en essayant de publier, les utilisateurs semblent recevoir un message indiquant que leur contenu – parfois simplement un lien vers un article – viole les normes de la communauté Facebook. « Nous travaillons dur pour limiter la propagation du spam parce que nous ne voulons pas autoriser le contenu conçu pour tromper ou qui tente d’induire les utilisateurs en erreur afin d’augmenter le nombre de téléspectateurs », lisez les règles de la plateforme.

Le problème vient également du fait que les plateformes de médias sociaux continuent de lutter contre la désinformation liée à Covid-19. Sur les réseaux sociaux, certains sont désormais flottant l’idée que la décision de Facebook d’envoyer ses modérateurs de contenu contractuels à la maison pourrait être la cause du problème.

Facebook repousse cette idée et le vice-président de l’intégrité de la société, Guy Rosen, tweeté que « ceci est un bogue dans un système anti-spam, sans rapport avec les changements dans notre effectif de modérateur de contenu. » Rosen a déclaré que la plate-forme travaille à la restauration des messages.

Recode a contacté Facebook pour un commentaire, et nous mettrons à jour ce message si nous entendons de nouveau.

Le problème sur Facebook rappelle que tout type de système automatisé peut encore bousiller, et ce fait pourrait devenir plus évident à mesure que de plus en plus d’entreprises, y compris Twitter et YouTube, dépendent de la modération automatisée du contenu pendant la pandémie de coronavirus. Les entreprises disent qu’elles le font pour respecter la distance sociale, car nombre de leurs employés sont obligés de travailler à domicile. Cette semaine, ils ont également averti les utilisateurs qu’en raison de l’augmentation de la modération automatisée, davantage de messages pourraient être supprimés par erreur.

Dans un article de blog Lundi, YouTube a déclaré à ses créateurs que la plate-forme se tournerait vers l’apprentissage automatique pour aider «une partie du travail normalement effectué par les évaluateurs». La société a averti que la transition signifierait que certains contenus seraient supprimés sans examen humain, et que les utilisateurs et les contributeurs à la plate-forme pourraient voir des vidéos supprimées du site qui ne violent réellement aucune des politiques de YouTube.

La société a également averti que «le contenu non révisé peut ne pas être disponible via la recherche, sur la page d’accueil ou dans les recommandations».

De même, Twitter a déclaré aux utilisateurs que la plate-forme s’appuiera de plus en plus sur l’automatisation et l’apprentissage automatique pour supprimer «le contenu abusif et manipulé». Pourtant, la société a reconnu que l’intelligence artificielle ne remplacerait pas les modérateurs humains.

« Nous voulons être clairs: alors que nous travaillons pour assurer la cohérence de nos systèmes, ils peuvent parfois manquer du contexte que nos équipes apportent, ce qui peut nous amener à commettre des erreurs », a déclaré la société dans un article de blog.

Pour compenser les erreurs potentielles, Twitter a déclaré qu’il ne suspendrait définitivement aucun compte « uniquement sur la base de nos systèmes d’application automatisés ». YouTube procède également à des ajustements. « Nous n’émettrons pas de grèves sur ce contenu, sauf dans les cas où nous sommes convaincus qu’il s’agit d’une violation », a déclaré la société, ajoutant que les créateurs aurait la chance de faire appel ces décisions.

Facebook, quant à lui, dit qu’il travaille avec ses partenaires pour envoyer ses modérateurs de contenu à la maison et pour s’assurer qu’ils sont payés. La société étudie également la possibilité d’examiner temporairement le contenu de certains de ses modérateurs.

« Nous ne nous attendons pas à ce que cela ait un impact notable sur les personnes utilisant notre plate-forme », a déclaré la société dans un communiqué. déclaration le lundi. «Cela dit, cette approche peut présenter certaines limites et nous pourrions constater des temps de réponse plus longs et ainsi faire plus d’erreurs.»

Le passage aux modérateurs de l’IA n’est pas une surprise. Pendant des années, les entreprises technologiques ont poussé outils automatisés comme un moyen de compléter leurs efforts pour lutter contre le contenu offensant et dangereux qui peut se multiplier sur leurs plateformes. Bien que l’IA puisse accélérer la modération du contenu, la technologie peut également avoir du mal à comprendre le contexte social des publications ou des vidéos et, par conséquent, à porter des jugements inexacts sur leur signification. En fait, la recherche a montré que les algorithmes qui détectent le racisme peuvent être biaisés contre les Noirs, et la technologie a été largement critiquée pour être vulnérable à la prise de décision discriminatoire.

Normalement, les lacunes de l’IA nous ont amenés à compter sur des modérateurs humains qui peuvent mieux comprendre les nuances. Les réviseurs de contenu humain, cependant, ne sont en aucun cas une solution parfaite non plus, d’autant plus qu’ils peuvent être amenés à travailler de longues heures à analyser des images et des images traumatisantes, violentes et offensantes. Leur les conditions de travail ont récemment fait l’objet d’un examen minutieux.

Mais à l’ère de la pandémie de coronavirus, avoir des examinateurs travaillant côte à côte dans un bureau pourrait non seulement être dangereux pour eux, mais aussi risquer de propager davantage le virus au grand public. Gardez à l’esprit que ces entreprises peuvent hésiter à autoriser les réviseurs de contenu à travailler à domicile car ils ont accès à de nombreuses informations sur les utilisateurs privés, sans parler du contenu très sensible.

Au milieu de la nouvelle pandémie de coronavirus, l’examen du contenu n’est qu’une autre façon de nous tourner vers l’IA pour obtenir de l’aide. Alors que les gens restent à l’intérieur et cherchent à déplacer leurs interactions en personne en ligne, nous verrons inévitablement à quel point cette technologie se porte bien lorsqu’elle donne plus de contrôle sur ce que nous voyons sur les plateformes sociales les plus populaires au monde. Sans l’influence des évaluateurs humains à laquelle nous nous attendons, cela pourrait être une grande époque pour les robots.

Mise à jour, 17 mars 2020, 21 h 45 HE: Cette publication a été mise à jour pour inclure de nouvelles informations sur les publications Facebook signalées comme spam et supprimées.

Source ouverte est rendu possible par Omidyar Network. Tout le contenu Open Source est indépendant de la rédaction et produit par nos journalistes.