Menu

rencontre avec des ingénieurs qui modèrent le contenu à l'aide d'algorithmes

16 décembre 2019 - Actualités
rencontre avec des ingénieurs qui modèrent le contenu à l'aide d'algorithmes


Comment distinguer la marijuana des choux de Bruxelles? Comment savoir si un commentaire désobligeant est drôle ou vraiment insultant? Comment déterminer si la photo d'un mamelon est pornographique ou non? Et tout cela à l'échelle mondiale et à la vitesse de la lumière? Ce sont les types de problèmes que les ingénieurs du pôle «Intégrité communautaire» de Facebook tentent de résoudre.

machines et hommes

Située au 3ème étage du nouveau siège londonien de Facebook, cette équipe de dix ingénieurs gère la modération des contenus de l'ensemble du groupe. Pour la première fois, ils ont ouvert leurs portes à la presse et levé le voile sur leurs outils.

Plusieurs fois épinglée pour ses lacunes et son laxisme, la plateforme fondée par Mark Zuckerberg s'efforce de mettre en valeur ses efforts. Et le l'intégrité de l'équipe est la vitrine. Sa mission principale: " minimiser les erreurs ". A première vue, cet objectif est plutôt humble, mais qui se révèle très ambitieux. A l'aide de systèmes intelligents, ils sont responsables de la protection" intégrité Sur les 2,4 milliards d'utilisateurs dans le monde.

Pour relever cet énorme défi du premier réseau social mondial, ces ingénieurs pensent à des mécanismes automatisés toujours plus complexes et intelligents. Un processus dans lequel les intelligences humaines et artificielles sont indissociables.

Protégez la «communauté» Facebook

Leur Bible est les «normes communautaires». En six chapitres, ce guide de modération interne divise le contenu inapproprié à cibler en trois catégories principales: les acteurs frauduleux, le contenu illégal et les comportements préjudiciables. Malgré leur nature formelle, ces lignes directrices sont susceptibles d'évoluer pour mieux correspondre aux normes et aux valeurs de la «communauté» Facebook.

" La propagande terroriste, par exemple, est une tolérance zéro "Explique Nicola Bortignon, l'un des ingénieurs en charge des contenus manifestement violents." Cependant, nous avons dû adapter notre définition du terrorisme. Auparavant, elle se limitait aux organisations identifiées comme terroristes: l'État islamique ou Al-Qaïda. Aujourd'hui, neuf mois après Christchurch, nous avons dû élargir et renforcer notre filtrage. "

2 milliards de spams supprimés en trois mois

Derrière la preuve du caractère illicite du contenu terroriste – régi par l'appel de Christchurch – les arbitrages sont souvent de géométrie variable. De plus, lors de cette journée «portes ouvertes», les thèmes évoqués sont soigneusement choisis. Il ne sera pas question de manipuler de fausses informations, de la pornographie enfantine ou du suicide en ligne. Les ingénieurs du département Intégrité sont très prudents. Ils continuent de dire " Je n'ai pas toutes les réponses ". La parade devant l'arbitraire reste l'agilité des intelligences artificielles qui appliquent leurs choix.

" Notre combat est de minimiser les faux positifs et de suivre le contenu qui tombe entre les mailles du filet Explique Simon Cross, le chef du département Intégrité. " Nous avons fait d'immenses progrès, même si cela ne suffit pas ", Il admet.

Selon le rapport de transparence publié en novembre 2019, la quantité de contenu terroriste supprimé sur Facebook est passée à 5,2 millions de juillet à septembre de la même année. Mais ce n'est rien comparé à la quantité de spam repéré et supprimé, qui avoisinait les 2 milliards au cours de la même période (voir graphique ci-dessous).

L'échelle du graphique, en millions, montre la quantité astronomique de contenu à analyser. Le contenu lié à la haine en ligne semble être minoritaire, alors qu'en réalité il représente 7 millions de publications.

Des ordinateurs pour des tâches titanesques

" L'avantage d'une machine est qu'elle est capable de détecter un million de contenus manifestement illicites immédiatement, en moins d'une seconde, et surtout de ne pas s'arrêterExplique Simon Cross, le chef du département Intégrité.

Pour le traitement des images publiées par les utilisateurs, par exemple, apprentissage automatique sont désormais en mesure de comprendre les éléments contextuels pour déterminer la nature de la publication. Cela n'a pas été possible en 2014. Pour reprendre le cas de la marijuana (voir photo ci-dessus), les IA de Facebook sont capables d'analyser la nature de l'image, sa légende, mais aussi le contexte général de la publication.

Conclusion: les ingénieurs sont satisfaits des progrès réalisés. La part du contenu modéré de manière proactive, c'est-à-dire la suppression interne de Facebook avant même qu'un utilisateur ne le signale, augmente. Les publications avec des armes, par exemple, sont identifiées à 94% avant de rendre compte. Une courbe ascendante, certes, mais limitée aux zones que le pôle Intégrité a bien voulu montrer.

"Un rapport suffit"

Dans le même temps, l'activité de Mark Zuckerberg incite les utilisateurs à répondre. Une fois signalée, la publication fait l'objet d'un double dialogue avec la personne qui a signalé et la personne qui a publié la publication signalée. L'ensemble du contenu identifié par les utilisateurs intègre alors l'itinéraire classique décrit ci-dessus.

" Un rapport suffit pour qu'il soit pris en compte "Insiste Sandi Conroy, le scientifique des données en charge des fonctionnalités estampillées retour d'information. " La multiplication des rapports n'est pas nécessaire. Le nombre n'affecte pas les soins. Ce n'est qu'une légende. "

Même logique pour les commentaires, il y a filtrage a postériori par les algorithmes Facebook. Mais si vous insultez délibérément un autre utilisateur, une fenêtre apparaît " Êtes-vous sûr ? ". Une question ridicule qui trahit finalement l'impuissance de cette petite équipe à modérer une foule composée de centaines de millions de personnes …

15 000 modérateurs dans le monde

Si l'IA est efficace, elle est souvent stupide. Loin des bureaux de Londres, d'autres humains soutiennent nos ingénieurs: une armée de nettoyeurs dispersés dans le monde entier. Ils sont essentiels au travail des machines, explique l'un sur Facebook. Selon Simon Cross, le chef de la division Intégrité, se passer de cette intelligence humaine c'est " impensable En ce moment. Par un système de navette, les contenus identifiés passent les différents filtres, avant d'être supprimés ou non. En cas de doute, le post épinglé est examiné par des modérateurs humains.

Mais à leur sujet, les ingénieurs ne sont pas très bavards. Les informations sur ces travailleurs sont distillées avec parcimonie. En deux ans et demi, leur nombre a doublé. le examinateurs humains sont passés de 7 500 en mai 2017 à 15 000 aujourd'hui. En Europe, les centres de modération sont situés en Irlande, au Portugal et en Allemagne. Leur nombre vis-à-vis des dix ingénieurs en charge du pôle Intégrité de la communauté semble irréel.

Impossible, cependant, de savoir dans quelle mesure ils sont sous-traitants, quelle proportion est anglophone, qui voit quoi, s'ils sont suivis par des psychologues, où ils se trouvent exactement, comment ils fonctionnent, à quel rythme, ils & # 39; sont bien payés … Les modérateurs révèlent le côté obscur de Facebook, et il vaut mieux éviter d'en dire trop. L'équipe d'ingénieurs de Londres ne s'en tiendra qu'aux machines.

Facebook



Source link