OpenAI bannit des groupes de hackers

Groupe de hackers sur OpenAI

OpenAI a publié, le 9 juin 2025, un rapport inédit de « threat intelligence » qui dresse un état des lieux des abus constatés sur ChatGPT. La société y révèle avoir suspendu plusieurs dizaines de comptes liés à un acteur russophone spécialisé dans le développement de logiciels malveillants et à deux groupes de cyber-espionnage chinois, APT5 et APT15. Ces comptes utilisaient les capacités linguistiques du modèle pour accélérer le prototypage de code, collecter des informations techniques sensibles et automatiser de vastes campagnes d’influence sur les réseaux sociaux. Le document démontre concrètement que les grands modèles de langage peuvent, malgré leurs garde-fous, être instrumentalisés par des adversaires étatiques ou criminels à des fins d’optimisation opérationnelle et de diffusion de propagande.

Un modus operandi russe très structuré

Le cluster russophone, baptisé « ScopeCreep », illustre une méthode d’« itération fractionnée » pensée pour minimiser la trace laissée sur la plateforme. Les opérateurs créent une adresse courriel jetable, ouvrent un compte, soumettent une seule requête technique – par exemple un extrait de code Go à déboguer – récupèrent la réponse puis suppriment l’identifiant avant de recommencer. En chaînant ces fragments, ils ont conçu un chargeur Go multi-étapes camouflé dans un faux utilitaire de jeu nommé Crosshair X. Le programme abuse de ShellExecuteW pour se relancer avec privilèges élevés, insère des exclusions dans Windows Defender via PowerShell, déploie des proxys SOCKS5 pour masquer la télémétrie et exfiltre cookies, identifiants et jetons vers un canal Telegram contrôlé par les pirates.

OpenAI précise qu’aucune infection de grande ampleur n’a encore été observée, mais l’intérêt réside dans l’accélération du cycle de R&D : le temps consacré traditionnellement au débogage, à l’obfuscation et aux tests de persistance est ramené à quelques heures grâce à l’assistance du modèle. La stratégie d’abandon de compte empêche par ailleurs d’obtenir un historique complet des conversations, rendant l’attribution et la détection plus complexes pour les défenseurs. Cette efficacité montre que les LLM ne créent pas de nouvelles menaces, mais augmentent la productivité de groupes déjà compétents.

Deux groupes chinois, deux styles d’usage

Les deux autres ensembles de comptes démantelés appartiennent à APT5 et APT15, acteurs chinois bien connus des CERT. Leurs usages sont plus diversifiés : assistance à la configuration d’infrastructures Linux, conseils pour la compilation hors-ligne de bibliothèques, rédaction de scripts de force-brute FTP, et élaboration d’applications Android destinées à piloter en masse des comptes Facebook, Instagram, TikTok ou X. Les pirates ont également demandé des indications sur l’automatisation de tests d’intrusion, la gestion de flottes de périphériques et la recherche open source concernant des technologies satellitaires américaines – autant de voies susceptibles d’alimenter des intrusions futures contre des cibles gouvernementales ou industrielles.

Une mosaïque d’opérations d’influence

Au-delà de ces cas techniques, OpenAI a identifié un éventail de campagnes d’influence générées ou amplifiées par ChatGPT. « Sneer Review », probablement chinois, publie de longs articles et des commentaires multilingues pour façonner la perception internationale des revendications de Pékin. « Operation High Five », originaire des Philippines, bombarde TikTok et Facebook de messages brefs en anglais et en « Taglish » afin de manipuler l’opinion publique locale. « VAGue Focus » se fait passer pour des journalistes, traduit courriels et discours avant de les distordre, tandis qu’« Helgoland Bite » cible l’électorat allemand avec des récits anti-OTAN avant les élections de septembre 2025. D’autres clusters – « Uncle Spam », « Storm-2035 » ou « Wrong Number » – utilisent la plateforme pour générer des contenus polarisants, recruter de faux travailleurs IT ou appâter des victimes via des offres d’emploi frauduleuses.

Limites des garde-fous et réponse d’OpenAI

Le rapport détaille également les limites des garde-fous actuels. Demander la traduction d’un mail ou la rédaction d’une requête HTTPS est légitime ; assembler ces fragments dans un implant offensif ne l’est pas. OpenAI privilégie donc une détection comportementale : volumes anormaux de requêtes, thématiques sensibles, rotation rapide d’identités. Une fois un schéma suspect confirmé, les comptes sont fermés et les adresses IP signalées. L’entreprise partage aussi des indicateurs de compromission (hachages, adresses, chaînes de commande) avec la communauté de cybersécurité pour bloquer les relais et enrichir les bases de détection.

Enjeux pour la communauté de défense

Pour les défenseurs, trois défis se dessinent. Premièrement, la barrière d’entrée technique s’abaisse : un acteur moyennement compétent peut, grâce à un LLM, atteindre un niveau de sophistication professionnel. Deuxièmement, la désinformation gagne en cadence et en granularité, chaque message pouvant être adapté à la culture et à la langue de la cible. Troisièmement, les stratégies de détection doivent évoluer vers l’analyse de l’intention et la corrélation de micro-fragments de code ou de texte disséminés sur plusieurs comptes. Les SOC devront combiner télémétrie réseau, empreintes d’IA et veille humaine pour reconstituer le puzzle.

Pistes d’atténuation et perspectives

OpenAI recommande d’ajuster dynamiquement les quotas, de retarder les réponses sur les sujets sensibles, de déployer des classifieurs d’abus de plus en plus fins et de renforcer la vérification d’identité pour les usagers générant de gros volumes. Sur le plan stratégique, la société plaide pour la création d’un cadre international inspiré des régimes de non-prolifération, dans lequel les fournisseurs de LLM partageraient obligatoirement les signaux d’abus. Cette coordination devrait s’accompagner d’une coopération accrue avec les régulateurs, les hébergeurs et les plateformes sociales afin d’assécher les infrastructures techniques et financières des acteurs malveillants.

La suspension des comptes décrite par OpenAI manifeste la détermination de l’entreprise à contenir l’armement numérique de l’IA, mais souligne aussi la difficulté de bloquer un outil généraliste accessible depuis le monde entier. Tant que VPN, cryptomonnaies et services d’e-mail à usage unique préservent l’anonymat, les attaquants pourront revenir. La réponse devra donc être globale, évolutive et collaborative, associant éditeurs de modèles, équipes de défense, décideurs politiques et société civile pour que l’IA générative demeure un levier d’innovation plutôt qu’un multiplicateur de menaces.

Perspectives juridiques et éthiques

Sur le plan juridique, le rapport relance le débat sur la responsabilité des fournisseurs d’IA. Faut-il imposer une obligation de résultats – interdire tout usage malveillant – ou une obligation de moyens – démontrer que des contrôles raisonnables sont en place ? OpenAI penche pour la seconde approche, arguant qu’un modèle généraliste ne peut être bridé à 100 % sans perdre sa valeur, mais peut être entouré de garde-fous et d’audits indépendants pour limiter les abus.

Sources :
- The Hacker News
- Rapport d'OpenAI

Partager sur :

Aucun commentaire:

Enregistrer un commentaire

Populaires

Tags