Code Velocity
Sécurité de l'IA

Agents IA : Résister à l'injection de prompt par l'ingénierie sociale

·5 min de lecture·OpenAI·Source originale
Partager
Agents IA d'OpenAI résistant aux attaques par injection de prompt et ingénierie sociale

Les agents IA étendent rapidement leurs capacités, de la navigation sur le web à la récupération d'informations complexes et à l'exécution d'actions au nom des utilisateurs. Si ces avancées promettent une utilité et une efficacité sans précédent, elles introduisent simultanément de nouvelles surfaces d'attaque sophistiquées. L'injection de prompt est la principale d'entre elles – une méthode où des instructions malveillantes sont intégrées dans un contenu externe, visant à manipuler un modèle d'IA pour qu'il effectue des actions non intentionnelles. OpenAI souligne une évolution critique de ces attaques : elles imitent de plus en plus les tactiques d'ingénierie sociale, nécessitant un changement fondamental des stratégies de défense, passant du simple filtrage des entrées à une conception systémique robuste.

Évolution de la menace : injection de prompt et ingénierie sociale

Initialement, les attaques par injection de prompt étaient souvent simples, comme l'intégration de commandes adverses directes dans un article Wikipédia qu'un agent IA pourrait traiter. Les premiers modèles, manquant d'expérience en matière d'entraînement dans de tels environnements adverses, étaient sujets à suivre ces instructions explicites sans poser de questions. Cependant, à mesure que les modèles d'IA ont mûri et sont devenus plus sophistiqués, leur vulnérabilité à de telles suggestions manifestes a diminué. Cela a poussé les attaquants à développer des méthodes plus nuancées qui intègrent des éléments d'ingénierie sociale.

Cette évolution est significative car elle va au-delà de la simple identification d'une chaîne malveillante. Au lieu de cela, elle met au défi les systèmes d'IA de résister à un contenu trompeur ou manipulateur dans un contexte plus large, un peu comme un humain ferait face à l'ingénierie sociale. Par exemple, une attaque par injection de prompt en 2025 signalée à OpenAI impliquait la création d'un e-mail qui semblait inoffensif mais contenait des instructions intégrées conçues pour piéger un assistant IA afin qu'il extraie des données sensibles d'employés et les soumette à un 'système de validation de conformité'. Cette attaque a démontré un taux de réussite de 50 % lors des tests, illustrant l'efficacité de l'association de demandes apparemment légitimes avec des directives malveillantes. De telles attaques complexes contournent souvent les systèmes traditionnels de 'pare-feu IA', qui tentent généralement de classer les entrées sur la base d'heuristiques simples, car la détection de ces manipulations nuancées devient aussi difficile que de discerner un mensonge ou une désinformation sans un contexte situationnel complet.

Les agents IA comme homologues humains : leçons tirées des défenses contre l'ingénierie sociale

Pour contrer ces techniques avancées d'injection de prompt, OpenAI a adopté un changement de paradigme, en abordant le problème sous l'angle de l'ingénierie sociale humaine. Cette approche reconnaît que l'objectif n'est pas une identification parfaite de chaque entrée malveillante, mais plutôt la conception d'agents et de systèmes IA de manière à ce que l'impact de la manipulation soit sévèrement limité, même si une attaque réussit partiellement. Cet état d'esprit est analogue à la gestion des risques d'ingénierie sociale pour les employés humains au sein d'une organisation.

Considérons un agent de service client humain chargé de la capacité d'émettre des remboursements ou des cartes-cadeaux. Bien que l'agent vise à servir le client, il est continuellement exposé à des entrées externes — dont certaines peuvent être manipulatrices ou même coercitives. Les organisations atténuent ce risque en mettant en œuvre des règles, des limitations et des systèmes déterministes. Par exemple, un agent de service client peut avoir un plafond sur le nombre de remboursements qu'il peut émettre, ou des procédures spécifiques pour signaler les demandes suspectes. De même, un agent IA, tout en agissant au nom d'un utilisateur, doit avoir des limitations et des sauvegardes inhérentes. En concevant les agents IA au sein de ce 'système à trois acteurs' (utilisateur, agent, monde extérieur), où l'agent doit naviguer dans des entrées externes potentiellement hostiles, les concepteurs peuvent intégrer de la résilience. Cette approche reconnaît que certaines attaques passeront inévitablement, mais garantit que leur potentiel de nuisance est minimisé. Ce principe sous-tend une suite robuste de contre-mesures déployées par OpenAI.

Principe de défenseDescriptionAnalogie avec les systèmes humainsBénéfice
ContrainteLimiter les capacités et les actions de l'agent à des limites prédéfinies et sûres, empêchant les opérations non autorisées ou trop larges.Limites de dépenses, niveaux d'autorisation, application des politiques pour les employés.Réduit les dommages potentiels même si un agent est partiellement compromis.
TransparenceExiger la confirmation explicite de l'utilisateur pour les actions potentiellement dangereuses ou sensibles avant leur exécution.Approbation du manager pour les exceptions, vérification croisée des saisies de données critiques.Permet aux utilisateurs de remplacer ou de confirmer les opérations sensibles, assurant le contrôle.
SandboxingIsoler les actions de l'agent, en particulier lors de l'interaction avec des outils ou des applications externes, dans un environnement sécurisé et surveillé.Accès contrôlé aux systèmes sensibles, environnements réseau segmentés.Empêche les actions malveillantes d'affecter les systèmes centraux ou d'exfiltrer des données.
Analyse contextuelle source-puitsAnalyser les sources d'entrée et les puits de sortie pour détecter les flux de données suspects ou les transmissions non autorisées, en identifiant les modèles qui indiquent une intention malveillante.Systèmes de prévention des pertes de données (DLP), protocoles de détection des menaces internes.Identifie et bloque les tentatives d'exfiltration de données non autorisées.
Entraînement adversarialEntraîner continuellement les modèles d'IA à reconnaître et à résister au langage manipulateur, aux tactiques trompeuses et aux tentatives d'ingénierie sociale.Formation de sensibilisation à la sécurité, reconnaissance des tentatives de phishing et d'escroquerie.Améliore la capacité intrinsèque de l'agent à détecter et à signaler le contenu malveillant.

Les défenses multicouches d'OpenAI dans ChatGPT

OpenAI intègre ce modèle d'ingénierie sociale aux techniques d'ingénierie de la sécurité traditionnelles, en particulier l''analyse source-puits', au sein de ChatGPT. Dans ce cadre, un attaquant a besoin de deux composants clés : une 'source' pour injecter de l'influence (par exemple, un contenu externe non fiable) et un 'puits' pour exploiter une capacité dangereuse (par exemple, la transmission d'informations, le suivi d'un lien malveillant ou l'interaction avec un outil compromis). L'objectif principal d'OpenAI est de maintenir une attente fondamentale en matière de sécurité : les actions dangereuses ou la transmission d'informations sensibles ne devraient jamais se produire silencieusement ou sans les mesures de protection appropriées.

De nombreuses attaques contre ChatGPT tentent de tromper l'assistant pour qu'il extraie des informations conversationnelles secrètes et les transmette à un tiers malveillant. Bien que la formation de sécurité d'OpenAI amène souvent l'agent à refuser de telles requêtes, une stratégie d'atténuation critique pour les cas où l'agent est convaincu est le Safe Url. Ce mécanisme est spécifiquement conçu pour détecter quand des informations apprises lors d'une conversation pourraient être transmises à une URL tierce externe. Dans ces rares cas, le système affiche soit l'information à l'utilisateur pour une confirmation explicite avant de l'envoyer, soit bloque entièrement la transmission, invitant l'agent à trouver un moyen alternatif et sécurisé de répondre à la demande de l'utilisateur. Cela empêche l'exfiltration de données même si l'agent est momentanément compromis. Pour plus d'informations sur la protection contre les interactions de liens pilotées par l'agent, les utilisateurs peuvent se référer à l'article de blog dédié, Protéger vos données lorsqu'un agent IA clique sur un lien.

Le rôle de Safe URL et du sandboxing dans l'IA agentique

Le mécanisme Safe Url, conçu pour détecter et contrôler la transmission de données sensibles, étend sa portée protectrice au-delà des simples clics sur des liens. Des protections similaires sont appliquées aux navigations et aux signets dans Atlas, ainsi qu'aux fonctions de recherche et de navigation dans Deep Research. Ces applications impliquent intrinsèquement des agents IA interagissant avec de vastes sources de données externes, rendant des contrôles robustes pour les données sortantes primordiaux.

De plus, les fonctionnalités agentiques comme ChatGPT Canvas et ChatGPT Apps adoptent une philosophie de sécurité similaire. Lorsque les agents créent et utilisent des applications fonctionnelles, ces opérations sont confinées dans un environnement de type bac à sable sécurisé (sandboxing). Ce sandboxing permet la détection de communications ou d'actions inattendues. De manière cruciale, toute interaction potentiellement sensible ou non autorisée déclenche une demande de consentement explicite de l'utilisateur, garantissant que les utilisateurs conservent le contrôle ultime sur leurs données et le comportement de l'agent. Cette approche multicouche, combinant l'analyse source-puits avec la conscience contextuelle, le consentement de l'utilisateur et l'exécution en bac à sable, constitue une défense robuste contre les attaques évolutives par injection de prompt et d'ingénierie sociale. Pour plus de détails sur la manière dont ces capacités agentiques sont opérationnalisées de manière sécurisée, consultez les discussions sur l'opérationnalisation de l'IA agentique.

Pérenniser les agents autonomes contre les attaques adverses

Assurer une interaction sécurisée avec le monde extérieur hostile n'est pas seulement une fonctionnalité souhaitable, mais une base nécessaire au développement d'agents IA entièrement autonomes. La recommandation d'OpenAI pour les développeurs intégrant des modèles d'IA dans leurs applications est de considérer les contrôles qu'un agent humain aurait dans une situation similaire à enjeux élevés et d'implémenter ces limitations analogues au sein du système IA.

Bien que l'aspiration soit que les modèles d'IA maximalement intelligents finissent par résister à l'ingénierie sociale plus efficacement que les agents humains, ce n'est pas toujours un objectif immédiat réalisable ou rentable pour chaque application. Par conséquent, la conception de systèmes avec des contraintes et une supervision intégrées reste critique. OpenAI s'engage à rechercher continuellement les implications de l'ingénierie sociale contre les modèles d'IA et à développer des défenses avancées. Ces résultats sont intégrés à la fois dans leurs architectures de sécurité des applications et dans les processus de formation continue de leurs modèles d'IA, garantissant une approche proactive et adaptative de la sécurité de l'IA dans un paysage de menaces en constante évolution. Cette stratégie prospective vise à rendre les agents IA à la fois puissants et intrinsèquement dignes de confiance, faisant écho aux efforts visant à renforcer la sécurité à travers l'écosystème de l'IA, y compris des initiatives comme perturber les utilisations malveillantes de l'IA.

Questions Fréquentes

What is prompt injection in the context of AI agents?
Prompt injection refers to a type of attack where malicious instructions are subtly embedded within external content that an AI agent processes. The goal is to manipulate the agent into performing actions or revealing information that the user did not intend or authorize. These attacks exploit the AI's ability to interpret and follow instructions, even if those instructions originate from an untrusted source, effectively hijacking the agent's behavior for adversarial purposes. Early forms might be direct commands, but advanced forms leverage social engineering to be less detectable and more persuasive, requiring sophisticated countermeasures to maintain system integrity and user trust.
How has prompt injection evolved, and why is this significant?
Prompt injection has evolved from simple, explicit adversarial commands (e.g., direct instructions in a web page) to sophisticated social engineering tactics. Early attacks were often caught by basic filtering. However, as AI models became smarter, attackers started crafting prompts that blend malicious intent with seemingly legitimate context, mimicking human social engineering. This shift is significant because it means defenses can no longer rely solely on identifying malicious strings. Instead, they must address the broader challenge of resisting misleading or manipulative content in context, requiring a more holistic, systemic approach to security rather than just simple input filtering.
How does OpenAI defend against social engineering prompt injection attacks?
OpenAI employs a multi-layered defense strategy, drawing parallels from human social engineering risk management. This includes a 'three-actor system' perspective (user, agent, external world) where agents are given limitations to constrain potential impact. Key techniques include 'source-sink analysis' to detect dangerous data flows, Safe Url mechanisms that prompt user confirmation or block sensitive transmissions to third parties, and sandboxing for agentic tools like ChatGPT Canvas and Apps. The overarching goal is to ensure that critical actions or data transmissions do not happen silently, always prioritizing user safety and consent to maintain robust AI security.
What is Safe Url, and how does it protect AI agents and users?
Safe Url is a critical mitigation strategy developed by OpenAI designed to protect AI agents and users from unauthorized data exfiltration. It detects when information that an AI agent has learned during a conversation or interaction might be transmitted to an external, potentially malicious, third-party URL. When such a transmission is detected, Safe Url intervenes by either displaying the sensitive information to the user for explicit confirmation before sending it, or by blocking the transmission entirely and instructing the agent to find an alternative, secure method to fulfill the user's request. This mechanism ensures that sensitive data remains under user control, even if an agent is momentarily swayed by a social engineering prompt injection.
Why is user consent crucial for AI agents, especially with new capabilities?
User consent is paramount for AI agents, particularly as their capabilities expand to include browsing, interacting with external tools, and transmitting information. With advanced prompt injection and social engineering tactics, an agent might be tricked into performing actions that compromise privacy or security. Requiring explicit user consent for potentially dangerous actions—like transmitting sensitive data, navigating to external sites, or using external applications—ensures that users maintain ultimate control. This prevents silent compromises and empowers users to confirm or deny actions, acting as a crucial final layer of defense against manipulation and unauthorized behavior, aligning with principles of data privacy and user autonomy.
What is 'source-sink' analysis in the context of AI security?
Source-sink analysis is a security engineering approach used by OpenAI to identify and mitigate risks associated with data flow within AI systems. In this framework, a 'source' refers to any input mechanism through which an attacker can influence the system, such as untrusted external content, web pages, or emails processed by an AI agent. A 'sink' refers to a capability or action that, if exploited, could become dangerous in the wrong context, such as transmitting information to a third party, following a malicious link, or executing a tool. By analyzing potential paths from sources to sinks, security teams can implement controls to prevent unauthorized data movement or dangerous actions, even if an AI agent is partially compromised by a prompt injection attack. This method is fundamental to ensuring data integrity and system security.

Restez informé

Recevez les dernières actualités IA dans votre boîte mail.

Partager