Code Velocity
AI drošība

AI aģenti: pretestība pamudinājuma injekcijām ar sociālo inženieriju

·5 min lasīšana·OpenAI·Sākotnējais avots
Dalīties
OpenAI AI aģenti pretojas pamudinājuma injekcijām un sociālās inženierijas uzbrukumiem

AI aģenti strauji paplašina savas iespējas, sākot no tīmekļa pārlūkošanas līdz sarežģītas informācijas iegūšanai un darbību veikšanai lietotāju vārdā. Lai gan šie sasniegumi sola vēl nepieredzētu lietderību un efektivitāti, tie vienlaikus rada sarežģītas jaunas uzbrukumu virsmas. Galvenais no tiem ir pamudinājuma injekcija — metode, kurā ļaunprātīgas instrukcijas tiek iegultas ārējā saturā, lai manipulētu ar AI modeli, liekot tam veikt nevēlamas darbības. OpenAI uzsver kritisku attīstību šajos uzbrukumos: tie arvien biežāk atdarina sociālās inženierijas taktiku, kas prasa būtisku aizsardzības stratēģiju maiņu no vienkāršas ievades filtrēšanas uz stabilu sistēmisku dizainu.

Attīstošies draudi: pamudinājuma injekcija un sociālā inženierija

Sākotnēji pamudinājuma injekcijas uzbrukumi bieži bija vienkārši, piemēram, tiešu pretinieku komandu iegulšana Wikipedia rakstā, ko AI aģents varētu apstrādāt. Agrīnie modeļi, kuriem trūka apmācības laikā gūtās pieredzes šādās pretinieku vidēs, bija pakļauti šo skaidro instrukciju izpildei bez jautājumiem. Tomēr, AI modeļiem nobriestot un kļūstot sarežģītākiem, to neaizsargātība pret šādiem atklātiem ieteikumiem ir samazinājusies. Tas ir mudinājis uzbrucējus izstrādāt niansētākas metodes, kas ietver sociālās inženierijas elementus.

Šī attīstība ir nozīmīga, jo tā pārsniedz tikai ļaunprātīgu virkņu identificēšanu. Tā vietā tā izaicina AI sistēmas pretoties maldinošam vai manipulējošam saturam plašākā kontekstā, līdzīgi kā cilvēkam būtu jāsaskaras ar sociālo inženieriju. Piemēram, 2025. gada pamudinājuma injekcijas uzbrukumā, par kuru tika ziņots OpenAI, tika izveidots e-pasts, kas šķita nekaitīgs, bet saturēja iegultas instrukcijas, kas paredzētas, lai apmānītu AI asistentu izgūt sensitīvus darbinieku datus un nosūtīt tos "atbilstības validācijas sistēmai". Šis uzbrukums testēšanā uzrādīja 50% veiksmes rādītāju, parādot leģitīmu pieprasījumu sajaukšanas ar ļaunprātīgām direktīvām efektivitāti. Šādi sarežģīti uzbrukumi bieži apej tradicionālās "AI ugunsmūra" sistēmas, kas parasti cenšas klasificēt ievades, pamatojoties uz vienkāršām heuristikām, jo šo niansēto manipulāciju atklāšana kļūst tikpat sarežģīta kā melu vai dezinformācijas atšķiršana bez pilnīga situācijas konteksta.

AI aģenti kā cilvēka kolēģi: mācības no sociālās inženierijas aizsardzības

Lai novērstu šīs progresīvās pamudinājuma injekcijas tehnikas, OpenAI ir pieņēmusi paradigmas maiņu, aplūkojot problēmu caur cilvēka sociālās inženierijas prizmu. Šī pieeja atzīst, ka mērķis nav perfekta katras ļaunprātīgas ievades identifikācija, bet gan AI aģentu un sistēmu projektēšana tā, lai manipulācijas ietekme būtu ievērojami ierobežota, pat ja uzbrukums daļēji izdodas. Šī domāšana ir analoģiska sociālās inženierijas risku pārvaldībai cilvēka darbiniekiem organizācijā.

Iedomājieties cilvēka klientu apkalpošanas aģentu, kuram ir uzticēta iespēja izsniegt atmaksas vai dāvanu kartes. Lai gan aģents cenšas apkalpot klientu, viņš nepārtraukti saskaras ar ārējām ievadēm — dažas no tām var būt manipulējošas vai pat piespiedu. Organizācijas mazina šo risku, ieviešot noteikumus, ierobežojumus un deterministiskas sistēmas. Piemēram, klientu apkalpošanas aģentam var būt ierobežojums atmaksu skaitam, ko viņš var izsniegt, vai īpašas procedūras aizdomīgu pieprasījumu atzīmēšanai. Līdzīgi arī AI aģentam, darbojoties lietotāja vārdā, ir jābūt piemītošiem ierobežojumiem un aizsardzības pasākumiem. Izveidojot AI aģentus šajā "trīs aktoru sistēmā" (lietotājs, aģents, ārējā pasaule), kur aģentam ir jāorientējas potenciāli naidīgās ārējās ievadēs, dizaineri var iebūvēt noturību. Šī pieeja atzīst, ka daži uzbrukumi neizbēgami izslīdēs cauri, taču nodrošina, ka to iespējamais kaitējums tiek samazināts. Šis princips ir pamatā OpenAI izvietotajai stabilai pretpasākumu kopai.

Aizsardzības principsAprakstsAnaloģija ar cilvēka sistēmāmIeguvums
IerobežojumsAģenta spēju un darbību ierobežošana līdz iepriekš noteiktām, drošām robežām, novēršot nesankcionētas vai pārmērīgi plašas operācijas.Tēriņu ierobežojumi, autorizācijas līmeņi, politikas izpilde darbiniekiem.Samazina potenciālos zaudējumus, pat ja aģents ir daļēji kompromitēts.
PārredzamībaPrasība pēc skaidras lietotāja apstiprināšanas potenciāli bīstamām vai sensitīvām darbībām pirms to izpildes.Vadītāja apstiprinājums izņēmumiem, kritisku datu ievades pārbaude.Dod lietotājiem iespēju atcelt vai apstiprināt sensitīvas operācijas, nodrošinot kontroli.
Smilškaste (Sandboxing)Aģenta darbību izolēšana, īpaši mijiedarbojoties ar ārējiem rīkiem vai lietojumprogrammām, drošā, uzraudzītā vidē.Kontrolēta piekļuve sensitīvām sistēmām, segmentētas tīkla vides.Novērš ļaunprātīgu darbību ietekmi uz pamatsistēmām vai datu izfiltrēšanu.
Kontekstuāla avota un izlietnes analīzeIevades avotu un izvades izlietņu analīze, lai atklātu aizdomīgas datu plūsmas vai nesankcionētas pārraides, identificējot modeļus, kas norāda uz ļaunprātīgu nodomu.Datu zuduma novēršanas (DLP) sistēmas, iekšējo draudu noteikšanas protokoli.Identificē un bloķē nesankcionētus datu izfiltrēšanas mēģinājumus.
Pretinieku apmācībaNepārtraukta AI modeļu apmācība, lai atpazītu un pretotos manipulējošai valodai, maldinošām taktikām un sociālās inženierijas mēģinājumiem.Drošības apziņas apmācība, pikšķerēšanas un krāpšanas mēģinājumu atpazīšana.Uzlabo aģenta dabisko spēju noteikt un atzīmēt ļaunprātīgu saturu.

OpenAI daudzslāņu aizsardzība ChatGPT

OpenAI integrē šo sociālās inženierijas modeli ar tradicionālām drošības inženierijas metodēm, īpaši "avota-izlietnes analīzi", ChatGPT ietvaros. Šajā sistēmā uzbrucējam ir nepieciešamas divas galvenās sastāvdaļas: "avots", lai injicētu ietekmi (piemēram, neuzticams ārējais saturs), un "izlietne", lai izmantotu bīstamu spēju (piemēram, informācijas pārsūtīšana, sekošana ļaunprātīgai saitei vai mijiedarbība ar kompromitētu rīku). OpenAI galvenais mērķis ir uzturēt fundamentālu drošības gaidīšanu: bīstamas darbības vai sensitīvas informācijas pārsūtīšana nekad nedrīkst notikt klusi vai bez atbilstošiem aizsardzības pasākumiem.

Daudzi uzbrukumi pret ChatGPT mēģina apmānīt asistentu, lai tas izgūtu slepenu sarunu informāciju un pārsūtītu to ļaunprātīgai trešajai pusei. Lai gan OpenAI drošības apmācība bieži vien liek aģentam atteikties no šādiem pieprasījumiem, kritiska mazināšanas stratēģija gadījumos, kad aģents tiek pārliecināts, ir Safe Url. Šis mehānisms ir īpaši izstrādāts, lai atklātu, kad sarunas laikā iegūtā informācija varētu tikt pārsūtīta uz ārēju trešās puses URL. Šādos retos gadījumos sistēma vai nu parāda informāciju lietotājam skaidrai apstiprināšanai pirms nosūtīšanas, vai arī pilnībā bloķē pārsūtīšanu, liekot aģentam atrast alternatīvu, drošu veidu, kā izpildīt lietotāja pieprasījumu. Tas novērš datu izfiltrēšanu pat tad, ja aģents īslaicīgi tiek kompromitēts. Lai iegūtu papildu ieskatu par aizsardzību pret aģentu virzītu saišu mijiedarbību, lietotāji var atsaukties uz īpašo emuāra ziņu Jūsu datu drošības nodrošināšana, kad AI aģents noklikšķina uz saites.

Safe URL un smilškastes (Sandboxing) loma aģentiskajā AI

Safe Url mehānisms, kas paredzēts sensitīvu datu pārsūtīšanas noteikšanai un kontrolei, paplašina savu aizsardzības darbību ārpus parastiem saišu klikšķiem. Līdzīgi drošības pasākumi tiek piemēroti navigācijai un grāmatzīmēm Atlas ietvaros, kā arī meklēšanas un navigācijas funkcijām Deep Research. Šīs lietojumprogrammas pēc savas būtības ietver AI aģentu mijiedarbību ar plašiem ārējiem datu avotiem, padarot izejošo datu stingru kontroli par vissvarīgāko.

Turklāt aģentiskās funkcijas, piemēram, ChatGPT Canvas un ChatGPT Apps, pieņem līdzīgu drošības filozofiju. Kad aģenti veido un izmanto funkcionālas lietojumprogrammas, šīs darbības tiek ierobežotas drošā smilškastes vidē. Šī smilškaste ļauj noteikt negaidītas komunikācijas vai darbības. Būtiski, ka jebkura potenciāli sensitīva vai nesankcionēta mijiedarbība izraisa pieprasījumu pēc skaidras lietotāja piekrišanas, nodrošinot, ka lietotāji saglabā galīgo kontroli pār saviem datiem un aģenta uzvedību. Šī daudzslāņu pieeja, kas apvieno avota-izlietnes analīzi ar kontekstuālo izpratni, lietotāja piekrišanu un smilškastes izpildi, veido stabilu aizsardzību pret attīstošām pamudinājuma injekcijām un sociālās inženierijas uzbrukumiem. Lai iegūtu sīkāku informāciju par to, kā šīs aģentiskās iespējas tiek droši operacionalizētas, skatiet diskusijas par aģentiskā AI operacionalizāciju.

Autonomo aģentu nākotnes drošība pret pretinieku uzbrukumiem

Drošas mijiedarbības nodrošināšana ar naidīgo ārpasauli nav tikai vēlama funkcija, bet gan nepieciešams pamats pilnībā autonomu AI aģentu izstrādei. OpenAI ieteikums izstrādātājiem, kuri integrē AI modeļus savās lietojumprogrammās, ir apsvērt, kādas kontroles būtu cilvēka aģentam līdzīgā augsta riska situācijā, un ieviest šos analogos ierobežojumus AI sistēmā.

Lai gan ir vēlme, lai maksimāli inteliģenti AI modeļi galu galā efektīvāk pretotos sociālajai inženierijai nekā cilvēka aģenti, tas ne vienmēr ir iespējams vai rentabls tūlītējs mērķis katrai lietojumprogrammai. Tāpēc sistēmu projektēšana ar iebūvētiem ierobežojumiem un uzraudzību joprojām ir kritiska. OpenAI ir apņēmusies nepārtraukti pētīt sociālās inženierijas ietekmi uz AI modeļiem un izstrādāt progresīvas aizsardzības sistēmas. Šie atklājumi tiek integrēti gan to lietojumprogrammu drošības arhitektūrās, gan pašreizējos AI modeļu apmācības procesos, nodrošinot proaktīvu un adaptīvu pieeju AI drošībai arvien mainīgajā draudu vidē. Šī uz nākotni vērstā stratēģija tiecas padarīt AI aģentus gan jaudīgus, gan pēc būtības uzticamus, atspoguļojot centienus uzlabot drošību visā AI ekosistēmā, tostarp tādās iniciatīvās kā ļaunprātīgas AI izmantošanas traucēšana.

Bieži uzdotie jautājumi

What is prompt injection in the context of AI agents?
Prompt injection refers to a type of attack where malicious instructions are subtly embedded within external content that an AI agent processes. The goal is to manipulate the agent into performing actions or revealing information that the user did not intend or authorize. These attacks exploit the AI's ability to interpret and follow instructions, even if those instructions originate from an untrusted source, effectively hijacking the agent's behavior for adversarial purposes. Early forms might be direct commands, but advanced forms leverage social engineering to be less detectable and more persuasive, requiring sophisticated countermeasures to maintain system integrity and user trust.
How has prompt injection evolved, and why is this significant?
Prompt injection has evolved from simple, explicit adversarial commands (e.g., direct instructions in a web page) to sophisticated social engineering tactics. Early attacks were often caught by basic filtering. However, as AI models became smarter, attackers started crafting prompts that blend malicious intent with seemingly legitimate context, mimicking human social engineering. This shift is significant because it means defenses can no longer rely solely on identifying malicious strings. Instead, they must address the broader challenge of resisting misleading or manipulative content in context, requiring a more holistic, systemic approach to security rather than just simple input filtering.
How does OpenAI defend against social engineering prompt injection attacks?
OpenAI employs a multi-layered defense strategy, drawing parallels from human social engineering risk management. This includes a 'three-actor system' perspective (user, agent, external world) where agents are given limitations to constrain potential impact. Key techniques include 'source-sink analysis' to detect dangerous data flows, Safe Url mechanisms that prompt user confirmation or block sensitive transmissions to third parties, and sandboxing for agentic tools like ChatGPT Canvas and Apps. The overarching goal is to ensure that critical actions or data transmissions do not happen silently, always prioritizing user safety and consent to maintain robust AI security.
What is Safe Url, and how does it protect AI agents and users?
Safe Url is a critical mitigation strategy developed by OpenAI designed to protect AI agents and users from unauthorized data exfiltration. It detects when information that an AI agent has learned during a conversation or interaction might be transmitted to an external, potentially malicious, third-party URL. When such a transmission is detected, Safe Url intervenes by either displaying the sensitive information to the user for explicit confirmation before sending it, or by blocking the transmission entirely and instructing the agent to find an alternative, secure method to fulfill the user's request. This mechanism ensures that sensitive data remains under user control, even if an agent is momentarily swayed by a social engineering prompt injection.
Why is user consent crucial for AI agents, especially with new capabilities?
User consent is paramount for AI agents, particularly as their capabilities expand to include browsing, interacting with external tools, and transmitting information. With advanced prompt injection and social engineering tactics, an agent might be tricked into performing actions that compromise privacy or security. Requiring explicit user consent for potentially dangerous actions—like transmitting sensitive data, navigating to external sites, or using external applications—ensures that users maintain ultimate control. This prevents silent compromises and empowers users to confirm or deny actions, acting as a crucial final layer of defense against manipulation and unauthorized behavior, aligning with principles of data privacy and user autonomy.
What is 'source-sink' analysis in the context of AI security?
Source-sink analysis is a security engineering approach used by OpenAI to identify and mitigate risks associated with data flow within AI systems. In this framework, a 'source' refers to any input mechanism through which an attacker can influence the system, such as untrusted external content, web pages, or emails processed by an AI agent. A 'sink' refers to a capability or action that, if exploited, could become dangerous in the wrong context, such as transmitting information to a third party, following a malicious link, or executing a tool. By analyzing potential paths from sources to sinks, security teams can implement controls to prevent unauthorized data movement or dangerous actions, even if an AI agent is partially compromised by a prompt injection attack. This method is fundamental to ensuring data integrity and system security.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties