Menu

5 familles de malwares développées par l’IA analysées par Google ne fonctionnent pas et sont facilement détectées

6 novembre 2025 - Technologies
5 familles de malwares développées par l’IA analysées par Google ne fonctionnent pas et sont facilement détectées



Les évaluations fournissent un contre-argument solide aux discours exagérés claironnés par les sociétés d’IA, dont beaucoup recherchent de nouveaux cycles de financement à risque, selon lesquels les logiciels malveillants générés par l’IA sont répandus et font partie d’un nouveau paradigme qui constitue une menace actuelle pour les défenses traditionnelles.

Un exemple typique est Anthropic, qui a récemment signalé la découverte d’un acteur malveillant qui a utilisé son Claude LLM pour « développer, commercialiser et distribuer plusieurs variantes de ransomware, chacune dotée de capacités avancées d’évasion, de cryptage et de mécanismes anti-récupération ». L’entreprise a ajouté : « Sans l’aide de Claude, ils ne pourraient pas implémenter ou dépanner les principaux composants des logiciels malveillants, tels que les algorithmes de chiffrement, les techniques d’anti-analyse ou la manipulation des composants internes de Windows. »

La startup ConnectWise a récemment déclaré que l’IA générative « abaissait la barre d’entrée pour que les acteurs malveillants entrent dans le jeu ». Le message cite un rapport distinct d’OpenAI qui a révélé que 20 acteurs malveillants distincts utilisaient son moteur ChatGPT AI pour développer des logiciels malveillants pour des tâches telles que l’identification des vulnérabilités, le développement de code d’exploitation et le débogage de ce code. BugCrowd, quant à lui, a déclaré que dans une enquête menée auprès d’individus auto-sélectionnés, « 74 % des pirates informatiques conviennent que l’IA a rendu le piratage plus accessible, ouvrant la porte à de nouveaux arrivants ».

Dans certains cas, les auteurs de ces rapports notent les mêmes limites que celles mentionnées dans cet article. Le rapport de Google publié mercredi indique que dans son analyse des outils d’IA utilisés pour développer du code pour gérer les canaux de commande et de contrôle et pour obscurcir ses opérations, « nous n’avons vu aucune preuve d’une automatisation réussie ou de capacités révolutionnaires ». OpenAI a dit à peu près la même chose. Pourtant, ces avertissements sont rarement mis en évidence et sont souvent minimisés dans la frénésie qui en résulte pour présenter les logiciels malveillants assistés par l’IA comme constituant une menace à court terme.

Le rapport de Google fournit au moins une autre conclusion utile. Un acteur malveillant qui a exploité le modèle d’IA Gemini de l’entreprise a réussi à contourner ses garde-fous en se faisant passer pour des pirates informatiques effectuant des recherches pour participer à un jeu de capture du drapeau. Ces exercices compétitifs sont conçus pour enseigner et démontrer des stratégies efficaces de cyberattaque aux participants et aux spectateurs.

De tels garde-fous sont intégrés à tous les LLM traditionnels pour empêcher leur utilisation malveillante, comme dans le cadre de cyberattaques et d’automutilation. Google a déclaré avoir depuis lors peaufiné ses contre-mesures pour résister à de tels stratagèmes.

En fin de compte, les logiciels malveillants générés par l’IA qui ont fait surface jusqu’à présent suggèrent qu’il s’agit principalement d’expérimentations et que les résultats ne sont pas impressionnants. Ces événements méritent d’être surveillés pour détecter les développements qui montrent que les outils d’IA produisent de nouvelles capacités jusqu’alors inconnues. Mais pour l’heure, les plus grandes menaces continuent de reposer essentiellement sur des tactiques démodées.