Le rapport sur les menaces contradictoires d’OpenAI devrait être un prélude à un partage de données plus robuste à l’avenir. En ce qui concerne l’IA, des chercheurs indépendants ont commencé à rassembler des bases de données sur les abus – comme la base de données sur les incidents d’IA et la base de données sur les incidents de Deepfakes politiques – pour permettre aux chercheurs de comparer différents types d’utilisation abusive et de suivre leur évolution au fil du temps. Mais il est souvent difficile de détecter les abus de l’extérieur. À mesure que les outils d’IA deviennent plus performants et omniprésents, il est important que les décideurs politiques qui envisagent de réglementer comprennent comment ils sont utilisés et abusés. Alors que le premier rapport d’OpenAI proposait des résumés de haut niveau et des exemples sélectionnés, l’élargissement des relations de partage de données avec des chercheurs qui offrent plus de visibilité sur le contenu ou les comportements contradictoires constitue une prochaine étape importante.
Lorsqu’il s’agit de lutter contre les opérations d’influence et les abus de l’IA, les internautes ont également un rôle à jouer. Après tout, ce contenu n’a d’impact que si les gens le voient, le croient et participent à son partage ultérieur. Dans l’un des cas révélés par OpenAI, des utilisateurs en ligne ont dénoncé de faux comptes utilisant du texte généré par l’IA.
Dans nos propres recherches, nous avons vu des communautés d’utilisateurs de Facebook dénoncer de manière proactive le contenu d’images généré par l’IA et créé par des spammeurs et des escrocs, aidant ainsi ceux qui sont moins conscients de la technologie à éviter de devenir la proie de la tromperie. Une bonne dose de scepticisme est de plus en plus utile : s’arrêter pour vérifier si le contenu est réel et si les gens sont bien ceux qu’ils prétendent être, et aider les amis et les membres de la famille à prendre davantage conscience de la prévalence croissante du contenu généré, peut aider les utilisateurs des médias sociaux à résister à la tromperie. propagandistes et escrocs.
Le billet de blog d’OpenAI annonçant le rapport de retrait le dit succinctement : « Les acteurs de la menace travaillent sur Internet. » Nous aussi. Alors que nous entrons dans une nouvelle ère d’opérations d’influence basées sur l’IA, nous devons relever des défis communs via la transparence, le partage de données et la vigilance collaborative si nous espérons développer un écosystème numérique plus résilient.
Josh A. Goldstein est chercheur au Centre pour la sécurité et les technologies émergentes (CSET) de l’Université de Georgetown, où il travaille sur le projet CyberAI. Renée DiResta est le directeur de recherche du Stanford Internet Observatory et l’auteur de Dirigeants invisibles : ceux qui transforment les mensonges en réalité.