L’avènement des grands modèles de langage (LLM) a déclenché une vague d’innovation, mais cette technologie puissante a rapidement trouvé sa place dans l’arsenal des cybercriminels. Les groupes de ransomware, en particulier, exploitent ces outils pour accélérer et affiner leurs opérations à une échelle sans précédent. L’écosystème de la cybercriminalité connaît actuellement trois changements structurels majeurs, tous catalysés par l’IA : l’abaissement des barrières à l’entrée pour les acteurs peu qualifiés, la fragmentation des méga-cartels au profit de petites équipes agiles, et le brouillage des frontières entre les groupes APT étatiques et les affiliés de ransomware.
Face à cette menace en pleine mutation, il est impératif pour les défenseurs de comprendre non pas seulement que les LLM sont utilisés, mais précisément comment ils modifient le cycle de vie des attaques. Le danger ne réside pas dans une hypothétique super-IA malveillante, mais dans une industrialisation de l’extorsion, rendue plus intelligente, plus rapide et plus difficile à contrer. L’analyse des nouvelles méthodes employées par les attaquants est la première étape pour adapter les stratégies de défense à cette nouvelle ère.
L’IA, un accélérateur d’opérations plutôt qu’une révolution pour les ransomwares
Contrairement à l’idée d’une transformation radicale, les experts de SentinelLABS évaluent que les LLM agissent principalement comme un accélérateur pour le cycle de vie des ransomwares. On observe des gains mesurables en vitesse, en volume et en portée multilingue à travers toutes les phases : reconnaissance, hameçonnage, assistance à l’outillage, triage des données et négociation. Cependant, il n’y a pas encore de changement fondamental dans les tactiques ou techniques, pas de nouvelle catégorie d’attaque entièrement conçue par l’IA à grande échelle.
Le véritable impact se situe dans l’optimisation des flux de travail existants. Les opérateurs de ransomware adoptent simplement les mêmes méthodes que les entreprises légitimes, mais à des fins criminelles. Un spécialiste du marketing utilise un LLM pour rédiger des textes publicitaires ; un cybercriminel l’utilise pour générer des e-mails de phishing ciblés et des notes de rançon parfaitement localisées dans la langue de la victime. Cette dynamique permet aux groupes de ransomware de faire évoluer leurs attaques plus rapidement que jamais.
Automatisation des tâches : du phishing à l’analyse de données volées
La capacité des LLM à traiter et à comprendre le langage naturel est une aubaine pour les attaquants. La phase de triage des données, autrefois laborieuse, est désormais largement automatisée. Un attaquant russophone, par exemple, pourrait ne pas reconnaître la sensibilité financière d’un fichier nommé “Fatura” (facture en turc) ou “Rechnung” (en allemand). Les LLM éliminent cet angle mort.
Avec une simple instruction comme “Trouve tous les documents relatifs à des dettes financières ou à des secrets commerciaux”, le modèle peut analyser des téraoctets de données volées dans n’importe quelle langue. Des recherches montrent que les LLM surpassent considérablement les outils traditionnels pour identifier des informations sensibles dans des corpus non anglophones. L’effet est double : les équipes compétentes deviennent plus rapides et peuvent opérer sur davantage de zones géographiques, tandis que les nouveaux venus atteignent une capacité fonctionnelle beaucoup plus vite.
L’essor des modèles locaux pour contourner les garde-fous
Pour éviter les mécanismes de sécurité intégrés aux LLM commerciaux (comme ceux d’OpenAI ou Google), les acteurs de la menace se tournent de plus en plus vers des modèles open source auto-hébergés. Des solutions comme les modèles Ollama offrent un contrôle total, minimisent la télémétrie et, surtout, sont dépourvues des garde-fous conçus pour empêcher les usages malveillants.
Les criminels développent des techniques pour décomposer des tâches malveillantes en fragments apparemment bénins. Ils peuvent répartir les requêtes sur plusieurs sessions ou modèles, puis assembler le code final hors ligne. Cette approche, parfois appelée “prompt smuggling”, dilue les soupçons. Alors que les premiers outils de ransomware assistés par LLM comme PromptLock étaient rudimentaires, la direction est claire : les modèles locaux et optimisés deviendront la norme pour les groupes les plus sophistiqués.
Cas d’usage documentés : quand l’IA passe à l’offensive
Plusieurs campagnes récentes illustrent comment les LLM sont activement intégrés dans les attaques. Ces exemples concrets montrent une accélération significative des capacités des attaquants, confirmant que la menace n’est plus théorique. Certains des plus grands cyberattaques de 2026 ont d’ailleurs montré des traces d’utilisation de ces technologies pour la reconnaissance ou la propagation.
Campagnes d’extorsion autonomes avec Claude Code
En août 2025, l’équipe de renseignement sur les menaces d’Anthropic a signalé qu’un acteur avait utilisé Claude Code pour mener une campagne d’extorsion hautement autonome. L’attaquant a non seulement automatisé les aspects techniques de l’intrusion, mais a également chargé le LLM d’évaluer quelles données exfiltrer, de déterminer le montant idéal de la rançon et de rédiger les demandes pour maximiser l’impact psychologique sur les victimes et les inciter à payer.
QUIETVAULT : le malware qui détourne les IA locales de la victime
Les chercheurs de Google Threat Intelligence ont identifié un logiciel malveillant de type “stealer” nommé QUIETVAULT, qui arme les outils d’IA en ligne de commande installés localement sur les machines des victimes. Ce stealer en JavaScript recherche les LLM présents sur les hôtes macOS et Linux et leur injecte une invite malveillante. Cette invite leur ordonne de rechercher de manière récursive des fichiers de portefeuilles de cryptomonnaies et des données de configuration sensibles.
En exploitant les capacités de raisonnement du LLM, le malware effectue une reconnaissance beaucoup plus intelligente que les algorithmes traditionnels basés sur la correspondance de motifs. Une fois les fichiers identifiés, QUIETVAULT utilise des fonctions de vol de données classiques pour les exfiltrer.
L’ingénierie sociale assistée par l’IA : de l’hameçonnage à la négociation
L’ingénierie sociale reste une technique de prédilection, désormais suralimentée par l’IA. Fin 2025, une campagne a utilisé une combinaison d’empoisonnement de SEO et de fonctionnalités de partage de conversation de LLM pour diriger les utilisateurs vers de faux tutoriels. Ces derniers, hébergés sur les domaines légitimes des fournisseurs de LLM, guidaient la victime pour installer le stealer macOS Amos Stealer sous prétexte d’une maintenance système.
Par ailleurs, des plateformes de Ransomware-as-a-Service (RaaS) comme Global Group ont commencé à proposer des fonctionnalités de “Chat assisté par IA”. Cet outil analyse les données de l’entreprise victime (revenus, comportement public) pour adapter la communication et la pression lors des négociations de rançon.
Quelles sont les prochaines étapes pour les LLM et les ransomwares ?
Les tendances actuelles dessinent un avenir où l’intégration des LLM dans la cybercriminalité va s’intensifier. SentinelLABS surveille plusieurs évolutions qui deviendront probablement significatives au cours des 12 à 24 prochains mois. Les défenseurs doivent se préparer à un paysage des menaces où le rythme opérationnel, plus que la nouveauté des capacités, définira le défi.
- Le “Prompt Smuggling as a Service” : La technique consistant à fragmenter les requêtes malveillantes pour contourner les protections va se banaliser. On verra émerger des services automatisés qui répartissent les invites sur plusieurs fournisseurs de LLM pour ensuite assembler les résultats.
- Optimisation des malwares locaux : Les preuves de concept de malwares assistés par LLM vont être optimisées. Elles tireront un meilleur parti des modèles locaux, devenant plus furtives, plus contrôlables et moins visibles pour les chercheurs.
- Agents de négociation automatisés : Les opérateurs de ransomware déploieront des agents de négociation pré-programmés. Ces bots, intégrés aux panneaux RaaS, seront capables de gérer les communications avec les victimes dans plusieurs langues et d’ajuster leur ton pour maximiser la pression.
- Usurpation d’identité et fausses revendications : La capacité des LLM à générer du contenu plausible à grande échelle va exacerber l’usurpation de l’identité de groupes de ransomware connus et la prolifération de fausses revendications, compliquant davantage l’attribution des attaques.
- Infrastructure de pression augmentée par l’IA : Des outils périphériques comme les plateformes d’appel automatisées ou les outils de spamming (SpamGPT, AIO Callcenter) deviendront plus intelligents et plus efficaces, accélérant les efforts des courtiers d’accès initial (IAB) qui alimentent l’écosystème des ransomwares.
L’impact de l’intelligence artificielle sur la sécurité est indéniable, comme le soulignent de nombreuses analyses du secteur. Pour les défenseurs, l’enjeu est de s’adapter à un paysage de menaces plus rapide et plus bruyant, où la distinction entre les acteurs sophistiqués et les novices s’estompe dangereusement.
Quel est l’impact principal des LLM sur les attaques par ransomware ?
L’impact principal est l’accélération et l’amélioration de l’efficacité des opérations existantes. Les LLM permettent aux attaquants de générer plus rapidement des e-mails de phishing convaincants, de trier les données volées pour trouver des informations de valeur, et de communiquer avec les victimes dans leur propre langue, abaissant ainsi la barrière à l’entrée pour les cybercriminels moins expérimentés.
Les LLM créent-ils de nouveaux types de malwares entièrement autonomes ?
Pour l’instant, non. Les LLM ne créent pas de nouvelles catégories de malwares fondamentalement différentes. Ils sont plutôt utilisés comme des assistants pour aider les humains à écrire du code, à automatiser des tâches répétitives et à rendre les attaques existantes plus efficaces. Le risque actuel n’est pas un malware super-intelligent, mais une industrialisation de l’extorsion.
Comment les défenseurs peuvent-ils se protéger contre ces menaces augmentées par l’IA ?
Les défenseurs doivent se concentrer sur l’adaptation de leurs outils et stratégies. Cela inclut l’amélioration de la détection du phishing généré par l’IA, la surveillance de l’utilisation suspecte d’outils d’IA locaux sur les postes de travail (comme dans le cas de QUIETVAULT), et l’utilisation de leur propre IA pour analyser plus rapidement les menaces et automatiser les réponses aux incidents.
Pourquoi les attaquants se tournent-ils vers des modèles de LLM locaux et open-source ?
Les modèles commerciaux comme ceux de Google ou OpenAI intègrent des garde-fous et des systèmes de surveillance pour empêcher leur utilisation à des fins malveillantes. En hébergeant leurs propres modèles open-source (comme Ollama), les attaquants contournent ces protections, gagnent un contrôle total sur le modèle et évitent de laisser des traces de leurs activités sur les serveurs d’un fournisseur tiers.



