Les grands modèles de langage (LLM) : une nouvelle surface d'attaque. Quelles implications pour la gouvernance de l'IA ?
By Yuri Bobbert and Kevin Zwaan
Les grands modèles linguistiques (LLM) sont en train de transformer les secteurs d'activité, mais les risques qui leur sont propres exigent une nouvelle approche en matière de sécurité et de gouvernance. Un article novateur coécrit par le cofondateur d'Anove, le professeur Yuri Bobbert, et le hacker éthique Kevin Zwaan, de Q-Cyber, révèle les limites des contrôles de sécurité traditionnels lorsque le comportement de l'IA peut être orienté par le simple langage courant.
Une démonstration récente a montré comment un LLM pouvait être « radicalisé » en huit heures, contournant les garde-fous de sécurité pour générer des logiciels malveillants à grande échelle. Il ne s'agissait pas d'une faille logicielle hautement technique écrite en code ; cela a été réalisé par manipulation et persuasion, en tirant parti de l'apprentissage contextuel du modèle pour lui faire oublier ses protocoles de sécurité, révélant ainsi une faille critique dans la sécurité de l'IA.
L'article souligne que la surface d'attaque de l'IA est plus large que le code. Elle inclut le modèle, les invites, les interfaces utilisateur, les politiques et même le contexte organisationnel. Lorsque les LLM sont intégrés dans des flux de travail avec un accès à des outils, des API et des données sensibles, les risques se multiplient, allant de la génération de contenu malveillant à la facilitation de cyberattaques à grande échelle. Les systèmes d'IA sont dynamiques, composés de composants interconnectés qui évoluent rapidement. En conséquence, la gouvernance traditionnelle ne peut pas suivre le rythme. Les listes de contrôle statiques et les audits ponctuels ne suffisent pas (si tant est qu'ils aient jamais suffi). La gestion de l'IA doit être continue, automatisée et fondée sur des preuves.
Lisez l'article complet ici pour approfondir la manière de gérer les risques liés à l'adoption de l'IA dans votre entreprise et découvrir comment le système de gestion de l'IA d'Anove et Q-Cyber peuvent permettre une IA responsable à grande échelle. Comme le résument les auteurs, « plus l'innovation avance vite, plus la gouvernance doit devenir automatisée et opérationnelle — sinon, elle n'est que de la poudre aux yeux ».