Code Velocity
AI-sikkerhet

AI-agenter: Motstand mot promptinjeksjon med sosial manipulering

·5 min lesing·OpenAI·Opprinnelig kilde
Del
OpenAIs AI-agenter som motstår promptinjeksjon og sosial manipuleringsangrep

AI-agenter utvider raskt sine evner, fra å surfe på nettet til å hente kompleks informasjon og utføre handlinger på vegne av brukere. Mens disse fremskrittene lover enestående nytte og effektivitet, introduserer de samtidig sofistikerte nye angrepsflater. Blant disse er promptinjeksjon – en metode der ondsinnede instruksjoner er innebygd i eksternt innhold, med sikte på å manipulere en AI-modell til å utføre utilsiktede handlinger. OpenAI fremhever en kritisk utvikling i disse angrepene: de etterligner i økende grad taktikker for sosial manipulering, noe som krever et grunnleggende skifte i forsvarsstrategier fra enkel inndatafiltrering til robust systemisk design.

Utviklende trussel: Promptinjeksjon og sosial manipulering

I utgangspunktet var promptinjeksjonsangrep ofte enkle, for eksempel å legge inn direkte fiendtlige kommandoer i en Wikipedia-artikkel som en AI-agent kunne behandle. Tidlige modeller, som manglet treningstidserfaring i slike fiendtlige miljøer, var utsatt for å følge disse eksplisitte instruksjonene uten spørsmål. Men etter hvert som AI-modeller har modnet og blitt mer sofistikerte, har deres sårbarhet for slike åpenbare forslag avtatt. Dette har fått angripere til å utvikle mer nyanserte metoder som inkluderer elementer av sosial manipulering.

Denne utviklingen er betydningsfull fordi den går utover bare å identifisere en ondsinnet streng. I stedet utfordrer den AI-systemer til å motstå villedende eller manipulerende innhold innenfor en bredere kontekst, omtrent som et menneske ville møte sosial manipulering. For eksempel involverte et promptinjeksjonsangrep i 2025 rapportert til OpenAI å utforme en e-post som virket ufarlig, men som inneholdt innebygde instruksjoner designet for å lure en AI-assistent til å trekke ut sensitive ansattdata og sende dem til et "compliance validation system". Dette angrepet demonstrerte en suksessrate på 50 % i testing, og viste effektiviteten av å blande legitimt-klingende forespørsler med ondsinnede direktiver. Slike komplekse angrep omgår ofte tradisjonelle "AI firewalling"-systemer, som vanligvis forsøker å klassifisere inndata basert på enkle heuristikker, fordi det å oppdage disse nyanserte manipuleringene blir like vanskelig som å skille en løgn eller desinformasjon uten full situasjonskontekst.

AI-agenter som menneskelige motstykker: Leksjoner fra forsvar mot sosial manipulering

For å motvirke disse avanserte promptinjeksjonsteknikkene har OpenAI tatt i bruk et paradigmeskifte, og ser på problemet gjennom linsen av menneskelig sosial manipulering. Denne tilnærmingen erkjenner at målet ikke er perfekt identifisering av hver ondsinnede inndata, men snarere å designe AI-agenter og systemer slik at virkningen av manipulering er sterkt begrenset, selv om et angrep delvis lykkes. Denne tankegangen er analog med å håndtere risikoer for sosial manipulering for menneskelige ansatte i en organisasjon.

Tenk deg en menneskelig kundeservicemedarbeider betrodd muligheten til å utstede refusjoner eller gavekort. Mens agenten har som mål å betjene kunden, er de kontinuerlig utsatt for eksterne inndata – hvorav noen kan være manipulerende eller til og med tvingende. Organisasjoner reduserer denne risikoen ved å implementere regler, begrensninger og deterministiske systemer. For eksempel kan en kundeservicemedarbeider ha en grense for antall refusjoner de kan utstede, eller spesifikke prosedyrer for å flagge mistenkelige forespørsler. På samme måte må en AI-agent, mens den opererer på vegne av en bruker, ha iboende begrensninger og sikkerhetstiltak. Ved å se AI-agenter innenfor dette "tre-aktør-systemet" (bruker, agent, ekstern verden), hvor agenten må navigere i potensielt fiendtlige eksterne inndata, kan designere bygge inn motstandskraft. Denne tilnærmingen erkjenner at noen angrep uunngåelig vil slippe gjennom, men sikrer at deres potensial for skade minimeres. Dette prinsippet underbygger en robust pakke med mottiltak implementert av OpenAI.

ForsvarsprinsippBeskrivelseAnalogi til menneskelige systemerFordel
BegrensningBegrenser agentens evner og handlinger til forhåndsdefinerte, sikre grenser, forhindrer uautoriserte eller for brede operasjoner.Utgiftsgrenser, autorisasjonsnivåer, retningslinjepålegg for ansatte.Reduserer potensiell skade selv om en agent er delvis kompromittert.
ÅpenhetKrever eksplisitt brukerbekreftelse for potensielt farlige eller sensitive handlinger før de utføres.Ledergodkjenning for unntak, dobbeltsjekking av kritiske datainnleggelser.Gir brukere mulighet til å overstyre eller bekrefte sensitive operasjoner, noe som sikrer kontroll.
SandboxingIsolerer agenthandlinger, spesielt når de interagerer med eksterne verktøy eller applikasjoner, innenfor et sikkert, overvåket miljø.Kontrollert tilgang til sensitive systemer, segmenterte nettverksmiljøer.Forhindrer ondsinnede handlinger fra å påvirke kjernesystemer eller eksfiltrere data.
Kontekstuell K&SAnalyserer inndatakilder og utdatasluk for mistenkelige dataflyter eller uautoriserte overføringer, identifiserer mønstre som indikerer ondsinnet hensikt.Systemer for datatapforebygging (DLP), protokoller for deteksjon av interne trusler.Identifiserer og blokkerer uautoriserte dataeksfiltreringsforsøk.
Adversariell TreningKontinuerlig trening av AI-modeller for å gjenkjenne og motstå manipulerende språk, villedende taktikker og forsøk på sosial manipulering.Sikkerhetsbevissthetsopplæring, gjenkjenning av phishing og svindelforsøk.Forbedrer agentens iboende evne til å oppdage og flagge ondsinnede innhold.

OpenAIs flerlagsforsvar i ChatGPT

OpenAI integrerer denne modellen for sosial manipulering med tradisjonelle sikkerhetstekniske teknikker, spesielt "kilde-sluk-analyse", innenfor ChatGPT. I dette rammeverket trenger en angriper to nøkkelkomponenter: en "kilde" for å injisere innflytelse (f.eks. upålitelig eksternt innhold) og et "sluk" for å utnytte en farlig egenskap (f.eks. overføre informasjon, følge en ondsinnet lenke eller interagere med et kompromittert verktøy). OpenAIs primære mål er å opprettholde en grunnleggende sikkerhetsforventning: farlige handlinger eller overføring av sensitiv informasjon skal aldri skje i stillhet eller uten passende sikkerhetstiltak.

Mange angrep mot ChatGPT forsøker å lure assistenten til å trekke ut hemmelig samtaleinformasjon og videresende den til en ondsinnet tredjepart. Mens OpenAIs sikkerhetstrening ofte fører til at agenten nekter slike forespørsler, er en kritisk avbøtende strategi for tilfeller der agenten blir overbevist, Safe Url. Denne mekanismen er spesifikt designet for å oppdage når informasjon lært under en samtale kan overføres til en ekstern tredjeparts-URL. I slike sjeldne tilfeller viser systemet enten informasjonen til brukeren for eksplisitt bekreftelse, eller blokkerer overføringen fullstendig, og ber agenten om å finne en alternativ, sikker måte å oppfylle brukerens forespørsel på. Dette forhindrer dataeksfiltrering selv om agenten midlertidig er kompromittert. For ytterligere innsikt i hvordan man sikrer seg mot agentdrevne lenkeinteraksjoner, kan brukere se den dedikerte bloggposten, Holde dataene dine trygge når en AI-agent klikker på en lenke.

Rollen til Safe URL og sandboxing i agentisk AI

Safe Url-mekanismen, designet for å oppdage og kontrollere overføring av sensitive data, utvider sin beskyttende rekkevidde utover bare lenkeklikk. Lignende sikkerhetstiltak brukes på navigasjoner og bokmerker innenfor Atlas og på søke- og navigasjonsfunksjoner i Deep Research. Disse applikasjonene involverer i seg selv AI-agenter som interagerer med store eksterne datakilder, noe som gjør robuste kontroller for utgående data avgjørende.

Videre tar agentiske funksjoner som ChatGPT Canvas og ChatGPT Apps i bruk en lignende sikkerhetsfilosofi. Når agenter oppretter og bruker funksjonelle applikasjoner, er disse operasjonene begrenset innenfor et sikkert sandboks-miljø. Denne sandboxingen muliggjør deteksjon av uventet kommunikasjon eller handlinger. Avgjørende er at alle potensielt sensitive eller uautoriserte interaksjoner utløser en forespørsel om eksplisitt brukersamtykke, noe som sikrer at brukere beholder den ultimate kontrollen over dataene sine og agentens oppførsel. Denne flerlags tilnærmingen, som kombinerer kilde-sluk-analyse med kontekstuell bevissthet, brukersamtykke og sandboxed utførelse, danner et robust forsvar mot utviklende promptinjeksjons- og sosial manipuleringsangrep. For mer detaljer om hvordan disse agentiske egenskapene blir operasjonelt sikret, se diskusjoner om operasjonalisering av agentisk AI.

Fremtidssikring av autonome agenter mot fiendtlige angrep

Å sikre trygg interaksjon med den fiendtlige omverdenen er ikke bare en ønskelig funksjon, men et nødvendig grunnlag for utviklingen av fullt autonome AI-agenter. OpenAIs anbefaling til utviklere som integrerer AI-modeller i sine applikasjoner, er å vurdere hvilke kontroller en menneskelig agent ville hatt i en lignende høyinnsatssituasjon, og å implementere disse analoge begrensningene innenfor AI-systemet.

Selv om ambisjonen er at maksimalt intelligente AI-modeller til slutt skal motstå sosial manipulering mer effektivt enn menneskelige agenter, er dette ikke alltid et gjennomførbart eller kostnadseffektivt umiddelbart mål for hver applikasjon. Derfor forblir det avgjørende å designe systemer med innebygde begrensninger og tilsyn. OpenAI er forpliktet til kontinuerlig å forske på implikasjonene av sosial manipulering mot AI-modeller og utvikle avanserte forsvar. Disse funnene er integrert i både deres applikasjonssikkerhetsarkitekturer og de pågående treningsprosessene for deres AI-modeller, noe som sikrer en proaktiv og adaptiv tilnærming til AI-sikkerhet i et stadig utviklende trusselbilde. Denne fremtidsrettede strategien har som mål å gjøre AI-agenter både kraftige og iboende pålitelige, noe som gjenspeiler innsatsen for å forbedre sikkerheten på tvers av AI-økosystemet, inkludert initiativer som forstyrrelse av ondsinnede AI-bruksområder.

Ofte stilte spørsmål

What is prompt injection in the context of AI agents?
Prompt injection refers to a type of attack where malicious instructions are subtly embedded within external content that an AI agent processes. The goal is to manipulate the agent into performing actions or revealing information that the user did not intend or authorize. These attacks exploit the AI's ability to interpret and follow instructions, even if those instructions originate from an untrusted source, effectively hijacking the agent's behavior for adversarial purposes. Early forms might be direct commands, but advanced forms leverage social engineering to be less detectable and more persuasive, requiring sophisticated countermeasures to maintain system integrity and user trust.
How has prompt injection evolved, and why is this significant?
Prompt injection has evolved from simple, explicit adversarial commands (e.g., direct instructions in a web page) to sophisticated social engineering tactics. Early attacks were often caught by basic filtering. However, as AI models became smarter, attackers started crafting prompts that blend malicious intent with seemingly legitimate context, mimicking human social engineering. This shift is significant because it means defenses can no longer rely solely on identifying malicious strings. Instead, they must address the broader challenge of resisting misleading or manipulative content in context, requiring a more holistic, systemic approach to security rather than just simple input filtering.
How does OpenAI defend against social engineering prompt injection attacks?
OpenAI employs a multi-layered defense strategy, drawing parallels from human social engineering risk management. This includes a 'three-actor system' perspective (user, agent, external world) where agents are given limitations to constrain potential impact. Key techniques include 'source-sink analysis' to detect dangerous data flows, Safe Url mechanisms that prompt user confirmation or block sensitive transmissions to third parties, and sandboxing for agentic tools like ChatGPT Canvas and Apps. The overarching goal is to ensure that critical actions or data transmissions do not happen silently, always prioritizing user safety and consent to maintain robust AI security.
What is Safe Url, and how does it protect AI agents and users?
Safe Url is a critical mitigation strategy developed by OpenAI designed to protect AI agents and users from unauthorized data exfiltration. It detects when information that an AI agent has learned during a conversation or interaction might be transmitted to an external, potentially malicious, third-party URL. When such a transmission is detected, Safe Url intervenes by either displaying the sensitive information to the user for explicit confirmation before sending it, or by blocking the transmission entirely and instructing the agent to find an alternative, secure method to fulfill the user's request. This mechanism ensures that sensitive data remains under user control, even if an agent is momentarily swayed by a social engineering prompt injection.
Why is user consent crucial for AI agents, especially with new capabilities?
User consent is paramount for AI agents, particularly as their capabilities expand to include browsing, interacting with external tools, and transmitting information. With advanced prompt injection and social engineering tactics, an agent might be tricked into performing actions that compromise privacy or security. Requiring explicit user consent for potentially dangerous actions—like transmitting sensitive data, navigating to external sites, or using external applications—ensures that users maintain ultimate control. This prevents silent compromises and empowers users to confirm or deny actions, acting as a crucial final layer of defense against manipulation and unauthorized behavior, aligning with principles of data privacy and user autonomy.
What is 'source-sink' analysis in the context of AI security?
Source-sink analysis is a security engineering approach used by OpenAI to identify and mitigate risks associated with data flow within AI systems. In this framework, a 'source' refers to any input mechanism through which an attacker can influence the system, such as untrusted external content, web pages, or emails processed by an AI agent. A 'sink' refers to a capability or action that, if exploited, could become dangerous in the wrong context, such as transmitting information to a third party, following a malicious link, or executing a tool. By analyzing potential paths from sources to sinks, security teams can implement controls to prevent unauthorized data movement or dangerous actions, even if an AI agent is partially compromised by a prompt injection attack. This method is fundamental to ensuring data integrity and system security.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del