Menu

Les critiques remettent en question la gamme technologique du nouveau conseil de sécurité de l’IA de la sécurité intérieure

30 avril 2024 - Technologies
Les critiques remettent en question la gamme technologique du nouveau conseil de sécurité de l’IA de la sécurité intérieure


Une photo modifiée d'un scientifique de 1956 embouteilleant soigneusement

Vendredi, le Département américain de la Sécurité intérieure a annoncé la création d’un Conseil de sûreté et de sécurité de l’intelligence artificielle, composé de 22 membres issus de l’industrie technologique, du gouvernement, du monde universitaire et d’organisations de défense des droits civiques. Mais étant donné la nature nébuleuse du terme « IA », qui peut s’appliquer à un large spectre de technologies informatiques, il n’est pas clair si ce groupe sera même en mesure de se mettre d’accord sur ce contre quoi il nous protège exactement.

Le président Biden a chargé le secrétaire du DHS, Alejandro Mayorkas, de créer le conseil d’administration, qui se réunira pour la première fois début mai, puis sur une base trimestrielle.

L’hypothèse fondamentale posée par l’existence du conseil d’administration, et reflétée dans le décret de Biden sur l’IA d’octobre, est que l’IA est une technologie intrinsèquement risquée et que les citoyens et les entreprises américains doivent être protégés contre son utilisation abusive. Dans cette optique, l’objectif du groupe est d’aider à se prémunir contre les adversaires étrangers utilisant l’IA pour perturber les infrastructures américaines ; élaborer des recommandations pour garantir l’adoption en toute sécurité de la technologie de l’IA dans les services de transport, d’énergie et Internet ; favoriser la collaboration intersectorielle entre le gouvernement et les entreprises ; et créer un forum où les dirigeants de l’IA pourront partager des informations sur les risques de sécurité de l’IA avec le DHS.

Il convient de noter que la nature mal définie du terme « intelligence artificielle » ne rend pas service au nouveau conseil d’administration en termes de portée et d’orientation. L’IA peut signifier bien des choses différentes : elle peut alimenter un chatbot, piloter un avion, contrôler les fantômes Pac-Man, réguler la température d’un réacteur nucléaire ou jouer à une grande partie d’échecs. Cela peut être toutes ces choses et bien plus encore, et comme bon nombre de ces applications de l’IA fonctionnent très différemment, rien ne garantit que deux personnes au sein du conseil d’administration penseront au même type d’IA.

Cette confusion se reflète dans les citations fournies par le communiqué de presse du DHS par les nouveaux membres du conseil d’administration, dont certains parlent déjà de différents types d’IA. Alors qu’OpenAI, Microsoft et Anthropic monétisent des systèmes d’IA générative comme ChatGPT basés sur de grands modèles de langage (LLM), Ed Bastian, PDG de Delta Air Lines, fait référence à des classes complètement différentes d’apprentissage automatique lorsqu’il dit : « En pilotant des outils innovants comme le ressourcement des équipages et la prévision des turbulences, l’IA apporte déjà des contributions significatives à la fiabilité du système de transport aérien de notre pays. »

Ainsi, définir la portée de ce que signifie exactement l’IA – et quelles applications de l’IA sont nouvelles ou dangereuses – pourrait être l’un des principaux défis du nouveau conseil d’administration.

Une table ronde des PDG de Big Tech suscite des critiques

Pour la réunion inaugurale du Conseil de sûreté et de sécurité de l’IA, le DHS a sélectionné un groupe à forte composante industrielle, composé des PDG de quatre principaux fournisseurs d’IA (Sam Altman d’OpenAI, Satya Nadella de Microsoft, Sundar Pichai d’Alphabet et Dario Amodei d’Alphabet). Anthpic), le PDG Jensen Huang du principal fabricant de puces IA Nvidia et des représentants d’autres grandes entreprises technologiques comme IBM, Adobe, Amazon, Cisco et AMD. Il y a aussi des représentants de grandes sociétés aérospatiales et aéronautiques : Northrop Grumman et Delta Air Lines.

À la lecture de l’annonce, certains critiques ont contesté la composition du conseil d’administration. Sur LinkedIn, le fondateur du Distributed AI Research Institute (DAIR), Timnit Gebru, a particulièrement critiqué la présence d’OpenAI au conseil d’administration et a écrit : « J’ai maintenant vu la liste complète et c’est hilarant. Les renards qui gardent le poulailler sont un euphémisme. »