DI agentai sparčiai plečia savo galimybes, pradedant naršymu internete ir baigiant sudėtingos informacijos paieška bei veiksmų vykdymu vartotojų vardu. Nors šios pažangos žada beprecedentį naudingumą ir efektyvumą, jos tuo pat metu sukuria sudėtingus naujus atakų paviršius. Svarbiausia iš jų yra raginimų injekcija – metodas, kai kenkėjiškos instrukcijos įterpiamos į išorinį turinį, siekiant manipuliuoti DI modeliu, kad jis atliktų nepageidaujamus veiksmus. OpenAI pabrėžia kritinę šių atakų evoliuciją: jos vis dažniau imituoja socialinės inžinerijos taktikas, reikalaujančias esminio gynybos strategijų pokyčio nuo paprasto įvesties filtravimo iki tvirto sisteminio projektavimo.
Besivystanti grėsmė: raginimų injekcija ir socialinė inžinerija
Iš pradžių raginimų injekcijos atakos dažnai būdavo tiesmukiškos, pavyzdžiui, tiesioginių priešiškų komandų įterpimas į Vikipedijos straipsnį, kurį galėjo apdoroti DI agentas. Ankstyvieji modeliai, neturėdami mokymo metu įgytos patirties tokiose priešiškose aplinkose, buvo linkę vykdyti šias aiškias instrukcijas be klausimų. Tačiau, DI modeliams bręstant ir tampant sudėtingesniems, jų pažeidžiamumas tokiems atviriems pasiūlymams sumažėjo. Tai paskatino užpuolikus kurti niuansuotesnius metodus, apimančius socialinės inžinerijos elementus.
Ši evoliucija yra reikšminga, nes ji peržengia vien kenkėjiškos eilutės identifikavimą. Vietoj to, ji meta iššūkį DI sistemoms atsispirti klaidinančiam ar manipuliuojančiam turiniui platesniame kontekste, panašiai kaip žmogus susidurtų su socialine inžinerija. Pavyzdžiui, 2025 m. „OpenAI“ pranešta raginimų injekcijos ataka apėmė el. laiško, kuris atrodė nekenksmingas, bet turėjo įterptų instrukcijų, skirtų apgauti DI asistentą, kad šis išgautų slaptus darbuotojų duomenis ir pateiktų juos „atitikties patvirtinimo sistemai“. Ši ataka testavimo metu parodė 50 % sėkmės rodiklį, demonstruodama teisėtai skambančių užklausų derinimo su kenkėjiškomis direktyvomis efektyvumą. Tokios sudėtingos atakos dažnai apeina tradicines „DI ugniasienės“ sistemas, kurios paprastai bando klasifikuoti įvestis pagal paprastas heuristikas, nes aptikti šias subtilias manipuliacijas tampa taip pat sunku, kaip atskirti melą ar dezinformaciją be viso situacinio konteksto.
DI agentai kaip žmonių atitikmenys: socialinės inžinerijos gynybos pamokos
Siekiant atremti šias pažangias raginimų injekcijos technikas, OpenAI priėmė paradigmos pokytį, žvelgdama į problemą per žmogiškosios socialinės inžinerijos prizmę. Šis požiūris pripažįsta, kad tikslas nėra tobulai identifikuoti kiekvieną kenkėjišką įvestį, o veikiau sukurti DI agentus ir sistemas taip, kad manipuliacijos poveikis būtų griežtai apribotas, net jei ataka iš dalies pavyktų. Šis mąstymo būdas yra analogiškas socialinės inžinerijos rizikos valdymui žmogiškiems darbuotojams organizacijoje.
Įsivaizduokite žmogų klientų aptarnavimo agentą, kuriam patikėta galimybė išduoti pinigų grąžinimus ar dovanų korteles. Nors agentas siekia aptarnauti klientą, jis nuolat susiduria su išorinėmis įvestimis – kai kurios iš jų gali būti manipuliacinės ar net prievartinės. Organizacijos sumažina šią riziką, įgyvendindamos taisykles, apribojimus ir deterministines sistemas. Pavyzdžiui, klientų aptarnavimo agentas gali turėti apribojimą dėl išduodamų grąžinimų skaičiaus arba konkrečias procedūras įtartiniems prašymams pažymėti. Panašiai, DI agentas, veikdamas vartotojo vardu, turi turėti įgimtus apribojimus ir apsaugos priemones. Įsivaizduojant DI agentus šioje „trijų veikėjų sistemoje“ (vartotojas, agentas, išorinis pasaulis), kur agentas turi naršyti potencialiai priešiškas išorines įvestis, kūrėjai gali įdiegti atsparumą. Šis požiūris pripažįsta, kad kai kurios atakos neišvengiamai prasiskverbs, tačiau užtikrina, kad jų žalos potencialas būtų minimizuotas. Šis principas yra tvirtų OpenAI įdiegtų atsakomųjų priemonių pagrindas.
| Gynybos principas | Aprašymas | Analogija žmogiškosioms sistemoms | Nauda |
|---|---|---|---|
| Apribojimas | Agentų galimybių ir veiksmų apribojimas iš anksto nustatytomis, saugiomis ribomis, užkertant kelią neteisėtoms ar per plačioms operacijoms. | Išlaidų limitai, autorizacijos lygiai, politikos vykdymas darbuotojams. | Sumažina potencialią žalą, net jei agentas yra iš dalies pažeistas. |
| Skaidrumas | Reikalavimas aiškaus vartotojo patvirtinimo prieš vykdant potencialiai pavojingus ar jautrius veiksmus. | Vadovo patvirtinimas išimtims, dvigubas svarbių duomenų įvedimo patikrinimas. | Suteikia vartotojams galimybę atšaukti arba patvirtinti jautrias operacijas, užtikrinant kontrolę. |
| Smėlio dėžė (Sandboxing) | Agentų veiksmų izoliavimas, ypač sąveikaujant su išoriniais įrankiais ar programomis, saugioje, stebimoje aplinkoje. | Kontroliuojama prieiga prie jautrių sistemų, segmentuotos tinklo aplinkos. | Apsaugo nuo kenkėjiškų veiksmų, turinčių įtakos pagrindinėms sistemoms ar duomenų nutekėjimo. |
| Kontekstinė Š&G analizė (S&S) | Įvesties šaltinių ir išvesties gilumų analizavimas dėl įtartinų duomenų srautų ar neteisėto perdavimo, identifikuojant kenkėjišką ketinimą rodančius modelius. | Duomenų praradimo prevencijos (DLP) sistemos, vidinių grėsmių aptikimo protokolai. | Identifikuoja ir blokuoja neteisėtus duomenų nutekėjimo bandymus. |
| Priešiškas mokymas | Nuolatinis DI modelių mokymas atpažinti ir atsispirti manipuliuojančiai kalbai, apgaulingoms taktikoms ir socialinės inžinerijos bandymams. | Saugumo sąmoningumo mokymai, sukčiavimo (phishing) ir apgavysčių atpažinimas. | Pagerina agento įgimtą gebėjimą aptikti ir pažymėti kenkėjišką turinį. |
OpenAI daugiasluoksnė gynyba „ChatGPT“
OpenAI integruoja šį socialinės inžinerijos modelį su tradicinėmis saugumo inžinerijos technikomis, ypač „šaltinio-gilumine analize“, „ChatGPT“ viduje. Šioje sistemoje užpuolikui reikia dviejų pagrindinių komponentų: „šaltinio“ įtakai įterpti (pvz., nepatikimo išorinio turinio) ir „gilumos“, kad būtų išnaudota pavojinga galimybė (pvz., informacijos perdavimas, kenkėjiškos nuorodos sekimas arba sąveika su pažeistu įrankiu). Pagrindinis OpenAI tikslas yra palaikyti esminį saugumo reikalavimą: pavojingi veiksmai ar slaptos informacijos perdavimas niekada neturėtų vykti tyliai ar be tinkamų apsaugos priemonių.
Daugelis atakų prieš „ChatGPT“ bando apgauti asistentą, kad šis išgautų slaptą pokalbių informaciją ir perduotų ją kenkėjiškai trečiajai šaliai. Nors OpenAI saugos mokymai dažnai priverčia agentą atsisakyti tokių prašymų, kritinė rizikos mažinimo strategija tais atvejais, kai agentas yra įtikintas, yra „Safe Url“. Šis mechanizmas specialiai sukurtas aptikti, kada pokalbio metu įgyta informacija gali būti perduota į išorinį trečiosios šalies URL. Tokiais retais atvejais sistema arba parodo informaciją vartotojui aiškiam patvirtinimui, arba visiškai blokuoja perdavimą, liepdama agentui rasti alternatyvų, saugų būdą įvykdyti vartotojo prašymą. Tai apsaugo nuo duomenų nutekėjimo, net jei agentas akimirkai yra pažeistas. Norėdami gauti daugiau informacijos apie apsaugą nuo agentų valdomų nuorodų sąveikos, vartotojai gali perskaityti specialų tinklaraščio įrašą: Saugokite savo duomenis, kai DI agentas paspaudžia nuorodą.
„Safe URL“ ir smėlio dėžės (Sandboxing) vaidmuo agentiniame DI
„Safe Url“ mechanizmas, skirtas aptikti ir kontroliuoti slaptų duomenų perdavimą, išplečia savo apsauginę aprėptį už paprastų nuorodų paspaudimų. Panašios apsaugos priemonės taikomos naršymui ir žymėms „Atlas“ sistemoje bei paieškos ir naršymo funkcijoms „Deep Research“. Šios programos iš esmės apima DI agentus, sąveikaujančius su dideliais išoriniais duomenų šaltiniais, todėl tvirtos išsiunčiamų duomenų kontrolės yra itin svarbios.
Be to, agentinės funkcijos, tokios kaip „ChatGPT Canvas“ ir „ChatGPT Apps“, taiko panašią saugumo filosofiją. Kai agentai kuria ir naudoja funkcines programas, šios operacijos yra apribotos saugioje smėlio dėžės aplinkoje. Ši smėlio dėžės aplinka leidžia aptikti netikėtus ryšius ar veiksmus. Svarbiausia, bet kokia potencialiai jautri ar neteisėta sąveika sukelia aiškų vartotojo sutikimo prašymą, užtikrinant, kad vartotojai išlaikytų galutinę savo duomenų ir agento elgesio kontrolę. Šis daugiasluoksnis požiūris, derinantis šaltinio-giluminę analizę su kontekstine žinute, vartotojo sutikimu ir vykdymu smėlio dėžėje, sudaro tvirtą gynybą nuo besivystančių raginimų injekcijos ir socialinės inžinerijos atakų. Išsamesnės informacijos apie tai, kaip šios agentinės galimybės yra saugiai įgyvendinamos, ieškokite diskusijose apie agentinio DI operacionalizavimą.
Autonominių agentų apsauga nuo priešiškų atakų ateityje
Saugios sąveikos su priešišku išoriniu pasauliu užtikrinimas yra ne tik pageidaujama funkcija, bet ir būtinas pagrindas visiškai autonominių DI agentų kūrimui. OpenAI rekomendacija kūrėjams, integruojantiems DI modelius į savo programas, yra apsvarstyti, kokias kontrolės priemones turėtų žmogaus agentas panašioje didelės rizikos situacijoje ir įdiegti analogiškus apribojimus DI sistemoje.
Nors siekis yra, kad maksimaliai protingi DI modeliai galiausiai veiksmingiau atsispirtų socialinei inžinerijai nei žmogiškieji agentai, tai ne visada yra įgyvendinamas ar ekonomiškai efektyvus artimiausias tikslas kiekvienai programai. Todėl sistemų, turinčių įmontuotus apribojimus ir priežiūrą, projektavimas išlieka kritiškai svarbus. OpenAI yra įsipareigojusi nuolat tirti socialinės inžinerijos poveikį DI modeliams ir kurti pažangią gynybą. Šios išvados integruojamos tiek į jų programų saugumo architektūras, tiek į nuolatinius jų DI modelių mokymo procesus, užtikrinant proaktyvų ir adaptyvų požiūrį į DI saugumą nuolat kintančioje grėsmių aplinkoje. Šia į ateitį orientuota strategija siekiama, kad DI agentai būtų galingi ir iš prigimties patikimi, atkartojant pastangas didinti saugumą visoje DI ekosistemoje, įskaitant tokias iniciatyvas kaip kenkėjiško DI naudojimo trikdymas.
Originalus šaltinis
https://openai.com/index/designing-agents-to-resist-prompt-injection/Dažniausiai užduodami klausimai
What is prompt injection in the context of AI agents?
How has prompt injection evolved, and why is this significant?
How does OpenAI defend against social engineering prompt injection attacks?
What is Safe Url, and how does it protect AI agents and users?
Why is user consent crucial for AI agents, especially with new capabilities?
What is 'source-sink' analysis in the context of AI security?
Būkite informuoti
Gaukite naujausias AI naujienas el. paštu.
