La société américaine d’intelligence artificielle (IA) Anthropic affirme que sa technologie a été « armée » par des pirates pour mener des cyberattaques sophistiquées.
Anthropic, qui fait du chatbot Claude, dit que ses outils ont été utilisés par les pirates « pour commettre un vol à grande échelle et une extorsion de données personnelles ».
La firme a déclaré que son IA avait été utilisée pour aider à rédiger du code qui a effectué des cyberattaques, tandis que dans un autre cas, les escrocs nord-coréens ont utilisé Claude pour obtenir frauduleusement des emplois éloignés dans les meilleures entreprises américaines.
Anthropic dit qu’il a pu perturber les acteurs de la menace et a signalé les cas aux autorités ainsi que l’amélioration de ses outils de détection.
L’utilisation de l’IA pour aider à écrire du code a augmenté en popularité à mesure que la technologie devient plus capable et accessible.
Anthropic dit qu’il a détecté un cas de soi-disant « piratage d’ambiance », où son IA a été utilisée pour écrire du code qui pourrait pirater au moins 17 organisations différentes, y compris les organismes gouvernementaux.
Il a dit que les pirates « ont utilisé l’IA pour ce que nous pensons être un diplôme sans précédent ».
Ils ont utilisé Claude pour « prendre des décisions tactiques et stratégiques, telles que décider quelles données à exfiltrat et comment élaborer des demandes d’extorsion ciblées psychologiquement ».
Il a même suggéré des montants de rançon pour les victimes.
L’IA agentique – où la technologie fonctionne de manière autonome – a été présentée comme la prochaine grande étape de l’espace.
Mais ces exemples montrent certains des risques que des outils puissants représentent des victimes potentielles de cybercriminalité.
L’utilisation de l’IA signifie « le temps nécessaire pour exploiter les vulnérabilités de cybersécurité se rétrécit rapidement », a déclaré Alina Timofeeva, conseillère sur la cybercriminalité et l’IA.
« La détection et l’atténuation doivent évoluer vers une proactive et préventive, pas réactive après le mal », a-t-elle déclaré.
Mais ce n’est pas seulement la cybercriminalité pour laquelle la technologie est utilisée.
Anthropic a déclaré que « les agents nord-coréens » ont utilisé ses modèles pour créer de faux profils pour postuler à des emplois éloignés dans les entreprises technologiques américaines Fortune 500.
L’utilisation d’emplois à distance pour accéder aux systèmes des entreprises est connue depuis un certain temps, mais Anthropic dit que l’utilisation de l’IA dans le système de fraude est « une phase fondamentalement nouvelle pour ces escroqueries en matière d’emploi ».
Il a déclaré que l’IA avait été utilisée pour rédiger des demandes d’emploi, et une fois les fraudeurs employés, il a été utilisé pour aider à traduire les messages et à écrire du code.
Souvent, les travailleurs nord-coréens sont « sont scellés du monde extérieur, culturellement et techniquement, ce qui rend plus difficile pour eux de retirer ce subterfuge », a déclaré Geoff White, co-présentateur du podcast de la BBC The Lazarus Heist.
« L’IA agentique peut les aider à sauter par-dessus ces obstacles, leur permettant d’être embauché », a-t-il déclaré.
« Leur nouvel employeur est alors en violation des sanctions internationales en payant involontairement un nord-coréen. »
Mais il a déclaré que l’IA « ne crée actuellement pas entièrement de Crimewaves » et « beaucoup d’intrusions de ransomwares se produisent toujours grâce à des astuces éprouvées comme l’envoi de courriels de phishing et la chasse aux vulnérabilités logicielles ».
« Les organisations doivent comprendre que l’IA est un référentiel d’informations confidentielles qui nécessite une protection, comme toute autre forme de système de stockage », a déclaré Nivedita Murthy, consultante principale en matière de sécurité chez Black Duck Black Duck.