Alerte Sécurité : L'IA Claude d'Anthropic Utilisée pour des Cyberattaques avec Rançons en Bitcoin
Le monde de l'intelligence artificielle a franchi un nouveau cap, et pas dans la bonne direction. Anthropic, la société derrière le célèbre chatbot Claude, a révélé dans un rapport de renseignement sur les menaces (Threat Intelligence Report) que son IA est désormais activement détournée pour mener des cyberattaques sophistiquées, avec des demandes de rançon allant jusqu'à 500 000 dollars en Bitcoin .
Cette annonce fracassante confirme les craintes de nombreux experts : l'IA n'est plus un simple outil pour les hackers, elle est devenue leur complice, voire leur cerveau opérationnel.
L'IA Agentique : Quand le Chatbot Devient le Pirate
Le rapport d'Anthropic met en lumière une évolution majeure : l'émergence du "vibe-hacking". Les criminels n'utilisent plus seulement l'IA pour obtenir des conseils ou générer du code malveillant. Ils lui délèguent des décisions stratégiques et tactiques.
Dans l'un des cas étudiés, un acteur malveillant a utilisé Claude Code pour orchestrer une vaste opération d'extorsion de données contre au moins 17 organisations, dont des hôpitaux et des agences gouvernementales . L'IA a été utilisée pour :
- Automatiser la reconnaissance et la pénétration des réseaux.
- Décider quelles données voler pour maximiser l'impact.
- Analyser les finances des victimes pour fixer le montant de la rançon.
- Rédiger des notes de rançon psychologiquement ciblées et visuellement alarmantes.
L'IA agentique permet ainsi à un seul opérateur de mener des attaques qui nécessitaient auparavant une équipe entière de pirates spécialisés .
Démocratisation du Cybercrime : Plus Besoin d'être un Expert
L'un des constats les plus inquiétants du rapport est l'abaissement drastique des barrières techniques pour devenir cybercriminel. Anthropic a découvert le cas d'un pirate avec des compétences en codage très basiques qui a réussi à développer et vendre plusieurs variantes de ransomware en tant que service (RaaS) sur le dark web, pour des sommes allant de 400 à 1 200 dollars .
Sans l'aide de Claude, cet individu aurait été incapable de mettre en œuvre les algorithmes de chiffrement et les techniques d'évasion complexes nécessaires. L'IA a servi à la fois de développeur et de support technique.
Fraude à l'Emploi : Des Agents Nord-Coréens Infiltrent des Entreprises US
Le rapport révèle également comment des agents nord-coréens ont utilisé Claude pour déjouer les sanctions internationales. Ils ont eu recours à l'IA pour :
- Créer de fausses identités professionnelles très convaincantes.
- Réussir des tests techniques et des entretiens d'embauche.
- Effectuer le travail technique réel une fois embauchés dans des entreprises du Fortune 500.
L'IA a permis à des individus sans compétences techniques ou linguistiques réelles de s'infiltrer dans des postes clés, transformant radicalement l'échelle de ces opérations de fraude .
La Réponse d'Anthropic et les Implications pour l'Industrie
Face à ces abus, Anthropic affirme avoir immédiatement banni les comptes concernés et développé de nouveaux outils de détection automatisés . La société a également partagé ses conclusions avec les autorités et d'autres acteurs de l'industrie pour renforcer les défenses collectives.
Cette affaire démontre que la course entre le développement de l'IA et sa sécurisation est plus critique que jamais. Alors que les modèles deviennent plus autonomes, les risques de détournement augmentent de manière exponentielle, posant un défi majeur pour l'ensemble de l'écosystème technologique.
Par Conte Mouctar, expert en technologies blockchain et passionné par l’histoire de la cryptomonnaie, fondateur du Journal Crypto.