Code Velocity
AI უსაფრთხოება

AI აგენტები: მოთხოვნის ინექციის წინააღმდეგობა სოციალური ინჟინერიით

·5 წუთი კითხვა·OpenAI·ორიგინალი წყარო
გაზიარება
OpenAI-ის AI აგენტები ეწინააღმდეგებიან მოთხოვნის ინექციისა და სოციალური ინჟინერიის შეტევებს

AI აგენტები სწრაფად აფართოებენ თავიანთ შესაძლებლობებს, ვებ-დათვალიერებიდან დაწყებული, რთული ინფორმაციის მოპოვებით და მომხმარებლების სახელით მოქმედებების შესრულებით დამთავრებული. მიუხედავად იმისა, რომ ეს მიღწევები უპრეცედენტო სარგებლიანობასა და ეფექტურობას გვპირდება, ისინი ერთდროულად აჩენენ შეტევის ახალ, დახვეწილ არეებს. მათ შორის მთავარია მოთხოვნის ინექცია — მეთოდი, რომლის დროსაც მავნე ინსტრუქციები გარე კონტენტშია ჩანერგილი, მიზნად ისახავს AI მოდელის მანიპულირებას დაუგეგმავი მოქმედებების შესასრულებლად. OpenAI ხაზს უსვამს ამ შეტევების კრიტიკულ ევოლუციას: ისინი სულ უფრო მეტად ბაძავენ სოციალური ინჟინერიის ტაქტიკას, რაც მოითხოვს თავდაცვის სტრატეგიებში ფუნდამენტურ ცვლილებას მარტივი შეყვანის ფილტრაციიდან მტკიცე სისტემურ დიზაინზე.

განვითარებადი საფრთხე: მოთხოვნის ინექცია და სოციალური ინჟინერია

თავდაპირველად, მოთხოვნის ინექციის შეტევები ხშირად მარტივი იყო, მაგალითად, პირდაპირი მტრული ბრძანებების ჩანერგვა ვიკიპედიის სტატიაში, რომელსაც AI აგენტი ამუშავებდა. ადრეული მოდელები, რომლებსაც არ ჰქონდათ ვარჯიშის დროის გამოცდილება ასეთ მტრულ გარემოში, მიდრეკილნი იყვნენ ამ აშკარა ინსტრუქციების უდავო მიყოლისკენ. თუმცა, მას შემდეგ, რაც AI მოდელები მომწიფდნენ და უფრო დახვეწილი გახდნენ, მათი დაუცველობა ასეთი აშკარა შეთავაზებების მიმართ შემცირდა. ამან თავდამსხმელებს უბიძგა შეექმნათ უფრო ნიუანსური მეთოდები, რომლებიც სოციალური ინჟინერიის ელემენტებს აერთიანებს.

ეს ევოლუცია მნიშვნელოვანია, რადგან ის სცდება მხოლოდ მავნე სტრიქონის იდენტიფიცირებას. სამაგიეროდ, ის AI სისტემებს უქმნის გამოწვევას, წინააღმდეგობა გაუწიონ შეცდომაში შემყვან ან მანიპულაციურ კონტენტს უფრო ფართო კონტექსტში, ისევე როგორც ადამიანი შეხვდებოდა სოციალურ ინჟინერიას. მაგალითად, 2025 წლის მოთხოვნის ინექციის შეტევა, რომელიც OpenAI-ს შეატყობინეს, გულისხმობდა ელექტრონული ფოსტის შექმნას, რომელიც უვნებლად გამოიყურებოდა, მაგრამ შეიცავდა ჩანერგილ ინსტრუქციებს, რომლებიც მიზნად ისახავდა AI ასისტენტის მოტყუებას მგრძნობიარე თანამშრომლის მონაცემების ამოსაღებად და მათი "შესაბამისობის ვალიდაციის სისტემისთვის" წარსადგენად. ამ შეტევამ ტესტირებისას 50%-იანი წარმატების მაჩვენებელი აჩვენა, რაც ასახავს ლეგიტიმურად ჟღერადი მოთხოვნების მავნე დირექტივებთან შერწყმის ეფექტურობას. ასეთი რთული შეტევები ხშირად გვერდს უვლის ტრადიციულ "AI firewalling" სისტემებს, რომლებიც ჩვეულებრივ ცდილობენ შეყვანის კლასიფიკაციას მარტივი ევრისტიკის საფუძველზე, რადგან ამ ნიუანსური მანიპულაციების აღმოჩენა ისეთივე რთული ხდება, როგორც ტყუილის ან დეზინფორმაციის გარჩევა სრული სიტუაციური კონტექსტის გარეშე.

AI აგენტები, როგორც ადამიანის კოლეგები: გაკვეთილები სოციალური ინჟინერიის თავდაცვისგან

ამ მოწინავე მოთხოვნის ინექციის ტექნიკების წინააღმდეგ საბრძოლველად, OpenAI-მ მიიღო პარადიგმის ცვლილება, პრობლემის განხილვა ადამიანის სოციალური ინჟინერიის პრიზმაში. ეს მიდგომა აღიარებს, რომ მიზანი არ არის ყოველი მავნე შეყვანის სრულყოფილი იდენტიფიკაცია, არამედ AI აგენტებისა და სისტემების ისე დაპროექტება, რომ მანიპულაციის გავლენა მკაცრად იყოს შეზღუდული, თუნდაც შეტევა ნაწილობრივ წარმატებული იყოს. ეს აზროვნება ანალოგიურია ორგანიზაციაში ადამიანის თანამშრომლებისთვის სოციალური ინჟინერიის რისკების მართვისა.

განვიხილოთ ადამიანის მომხმარებელთა მომსახურების აგენტი, რომელსაც ენდობა თანხის დაბრუნების ან სასაჩუქრე ბარათების გაცემის შესაძლებლობა. მიუხედავად იმისა, რომ აგენტი ცდილობს მომხმარებლის მომსახურებას, ის მუდმივად ექვემდებარება გარე შეყვანებს — ზოგიერთი მათგანი შეიძლება იყოს მანიპულაციური ან თუნდაც იძულებითი. ორგანიზაციები ამ რისკს ამცირებენ წესების, შეზღუდვების და დეტერმინისტული სისტემების დანერგვით. მაგალითად, მომხმარებელთა მომსახურების აგენტს შეიძლება ჰქონდეს ლიმიტი იმ თანხის დაბრუნების რაოდენობაზე, რომლის გაცემაც შეუძლია, ან სპეციალური პროცედურები საეჭვო მოთხოვნების აღსანიშნავად. ანალოგიურად, AI აგენტს, მომხმარებლის სახელით მოქმედებისას, უნდა ჰქონდეს თანდაყოლილი შეზღუდვები და უსაფრთხოების ზომები. AI აგენტების 'სამი აქტორის სისტემის' (მომხმარებელი, აგენტი, გარე სამყარო) ფარგლებში გააზრებით, სადაც აგენტმა უნდა გაუმკლავდეს პოტენციურად მტრულ გარე შეყვანებს, დიზაინერებს შეუძლიათ ჩაშენონ მდგრადობა. ეს მიდგომა აღიარებს, რომ ზოგიერთი შეტევა გარდაუვლად შემოიპარება, მაგრამ უზრუნველყოფს მათი ზიანის პოტენციალის მინიმიზაციას. ეს პრინციპი საფუძვლად უდევს OpenAI-ის მიერ განლაგებულ კონტრზომების მტკიცე კომპლექტს.

თავდაცვის პრინციპიაღწერაანალოგია ადამიანის სისტემებთანსარგებელი
შეზღუდვააგენტის შესაძლებლობებისა და მოქმედებების შეზღუდვა წინასწარ განსაზღვრულ, უსაფრთხო საზღვრებამდე, რაც ხელს უშლის არაავტორიზებულ ან ზედმეტად ფართო ოპერაციებს.ხარჯვის ლიმიტები, ავტორიზაციის დონეები, პოლიტიკის აღსრულება თანამშრომლებისთვის.ამცირებს პოტენციურ ზიანს მაშინაც კი, თუ აგენტი ნაწილობრივ კომპრომეტირებულია.
გამჭვირვალობაპოტენციურად საშიში ან მგრძნობიარე მოქმედებებისთვის აშკარა მომხმარებლის დადასტურების მოთხოვნა მათ შესრულებამდე.მენეჯერის დამტკიცება გამონაკლისებისთვის, კრიტიკული მონაცემების შეყვანის ორმაგი შემოწმება.აძლიერებს მომხმარებლებს მგრძნობიარე ოპერაციების გაუქმების ან დადასტურების შესაძლებლობას, რაც უზრუნველყოფს კონტროლს.
ქვიშის ყუთიაგენტის მოქმედებების იზოლირება, განსაკუთრებით გარე ინსტრუმენტებთან ან აპლიკაციებთან ურთიერთობისას, უსაფრთხო, მონიტორინგულ გარემოში.კონტროლირებადი წვდომა მგრძნობიარე სისტემებზე, სეგმენტირებული ქსელური გარემოები.ხელს უშლის მავნე მოქმედებებს ძირითად სისტემებზე ზემოქმედებას ან მონაცემთა ექსფილტრაციას.
კონტექსტური წყარო-მიმღებიშეყვანის წყაროებისა და გამომავალი მიმღებების ანალიზი საეჭვო მონაცემთა ნაკადებისთვის ან არაავტორიზებული გადაცემებისთვის, მავნე განზრახვის მაჩვენებელი შაბლონების იდენტიფიცირება.მონაცემთა დაკარგვის პრევენციის (DLP) სისტემები, ინსაიდერული საფრთხეების გამოვლენის პროტოკოლები.ამოიცნობს და ბლოკავს მონაცემთა არაავტორიზებული ექსფილტრაციის მცდელობებს.
მტრული სწავლებაAI მოდელების უწყვეტი სწავლება მანიპულაციური ენის, მატყუარა ტაქტიკისა და სოციალური ინჟინერიის მცდელობების ამოსაცნობად და წინააღმდეგობის გასაწევად.უსაფრთხოების ცნობიერების ტრენინგი, ფიშინგისა და თაღლითობის მცდელობების ამოცნობა.აუმჯობესებს აგენტის თანდაყოლილ უნარს, აღმოაჩინოს და მონიშნოს მავნე კონტენტი.

OpenAI-ის მრავალშრიანი თავდაცვა ChatGPT-ში

OpenAI ამ სოციალური ინჟინერიის მოდელს აერთიანებს ტრადიციულ უსაფრთხოების ინჟინერიის ტექნიკებთან, კერძოდ, 'წყარო-მიმღების ანალიზთან', ChatGPT-ის ფარგლებში. ამ ჩარჩოში თავდამსხმელს სჭირდება ორი ძირითადი კომპონენტი: 'წყარო' გავლენის ინექციისთვის (მაგ., არასანდო გარე კონტენტი) და 'მიმღები' საშიში შესაძლებლობის ექსპლუატაციისთვის (მაგ., ინფორმაციის გადაცემა, მავნე ბმულზე გადასვლა ან კომპრომეტირებულ ხელსაწყოსთან ურთიერთობა). OpenAI-ის მთავარი მიზანია უსაფრთხოების ფუნდამენტური მოლოდინის დაცვა: საშიში მოქმედებები ან მგრძნობიარე ინფორმაციის გადაცემა არასოდეს უნდა მოხდეს ჩუმად ან შესაბამისი უსაფრთხოების ზომების გარეშე.

ChatGPT-ის წინააღმდეგ მრავალი შეტევა ცდილობს ასისტენტის მოტყუებას საიდუმლო საკომუნიკაციო ინფორმაციის ამოღებისა და მავნე მესამე მხარისთვის გადაცემის მიზნით. მიუხედავად იმისა, რომ OpenAI-ის უსაფრთხოების ტრენინგი ხშირად იწვევს აგენტის მიერ ასეთი მოთხოვნების უარყოფას, კრიტიკული შემამსუბუქებელი სტრატეგია იმ შემთხვევებისთვის, როდესაც აგენტი დარწმუნებულია, არის Safe Url. ეს მექანიზმი სპეციალურად შექმნილია იმის დასადგენად, როდის შეიძლება გადაეცეს საუბრის დროს მიღებული ინფორმაცია გარე მესამე მხარის URL-ზე. ასეთ იშვიათ შემთხვევებში, სისტემა ან აჩვენებს ინფორმაციას მომხმარებელს აშკარა დადასტურებისთვის, ან მთლიანად ბლოკავს გადაცემას, რის შემდეგაც აგენტს სთხოვს იპოვოს ალტერნატიული, უსაფრთხო გზა მომხმარებლის მოთხოვნის შესასრულებლად. ეს ხელს უშლის მონაცემთა ექსფილტრაციას მაშინაც კი, თუ აგენტი მოკლედ კომპრომეტირებულია. აგენტების მიერ განხორციელებული ბმულებთან ურთიერთობისგან თავის დასაცავად, მომხმარებლებს შეუძლიათ მიმართონ სპეციალურ ბლოგპოსტს: თქვენი მონაცემების უსაფრთხოება, როდესაც AI აგენტი ბმულზე დაწკაპუნებს.

Safe URL-ისა და ქვიშის ყუთის როლი აგენტურ AI-ში

Safe Url მექანიზმი, შექმნილი მგრძნობიარე მონაცემთა გადაცემის აღმოსაჩენად და გასაკონტროლებლად, აფართოებს თავის დამცავ არეალს უბრალო ბმულების დაწკაპუნების მიღმა. მსგავსი უსაფრთხოების ზომები გამოიყენება Atlas-ში ნავიგაციებსა და სანიშნეებზე, ასევე Deep Research-ში ძიების და ნავიგაციის ფუნქციებზე. ეს აპლიკაციები თავისი არსით მოიცავს AI აგენტების ურთიერთობას უზარმაზარ გარე მონაცემთა წყაროებთან, რაც გამავალი მონაცემებისთვის მტკიცე კონტროლს უმნიშვნელოვანესს ხდის.

გარდა ამისა, აგენტური ფუნქციები, როგორიცაა ChatGPT Canvas და ChatGPT Apps, იზიარებენ მსგავს უსაფრთხოების ფილოსოფიას. როდესაც აგენტები ქმნიან და იყენებენ ფუნქციურ აპლიკაციებს, ეს ოპერაციები შეზღუდულია უსაფრთხო ქვიშის ყუთის გარემოში. ეს ქვიშის ყუთი საშუალებას იძლევა აღმოაჩინოს მოულოდნელი კომუნიკაციები ან მოქმედებები. რაც მთავარია, ნებისმიერი პოტენციურად მგრძნობიარე ან არაავტორიზებული ურთიერთქმედება იწვევს აშკარა მომხმარებლის თანხმობის მოთხოვნას, რაც უზრუნველყოფს, რომ მომხმარებლებმა შეინარჩუნონ საბოლოო კონტროლი თავიანთ მონაცემებზე და აგენტის ქცევაზე. ეს მრავალშრიანი მიდგომა, რომელიც აერთიანებს წყარო-მიმღების ანალიზს კონტექსტურ ცნობიერებასთან, მომხმარებლის თანხმობასთან და ქვიშის ყუთში შესრულებასთან, ქმნის მტკიცე თავდაცვას განვითარებადი მოთხოვნის ინექციისა და სოციალური ინჟინერიის შეტევების წინააღმდეგ. მეტი დეტალისთვის, თუ როგორ ხდება ამ აგენტური შესაძლებლობების უსაფრთხოდ ოპერაციონალიზაცია, იხილეთ დისკუსიები აგენტური AI-ის ოპერაციონალიზაციაზე.

ავტონომიური აგენტების დაცვა მტრული შეტევებისგან მომავლისთვის

მტრულ გარე სამყაროსთან უსაფრთხო ურთიერთქმედების უზრუნველყოფა არ არის მხოლოდ სასურველი ფუნქცია, არამედ აუცილებელი საფუძველი სრულად ავტონომიური AI აგენტების განვითარებისთვის. OpenAI-ის რეკომენდაცია დეველოპერებისთვის, რომლებიც AI მოდელებს თავიანთ აპლიკაციებში აერთიანებენ, არის განიხილონ, თუ რა კონტროლი ექნებოდა ადამიანის აგენტს მსგავს მაღალი რისკის სიტუაციაში და განახორციელონ ეს ანალოგიური შეზღუდვები AI სისტემაში.

მიუხედავად იმისა, რომ მიზანია მაქსიმალურად ინტელექტუალური AI მოდელებმა საბოლოოდ უფრო ეფექტურად გაუწიონ წინააღმდეგობა სოციალურ ინჟინერიას, ვიდრე ადამიანის აგენტებმა, ეს ყოველთვის არ არის განხორციელებადი ან ხარჯთეფექტური უშუალო მიზანი ყოველი აპლიკაციისთვის. ამიტომ, ჩაშენებული შეზღუდვებითა და ზედამხედველობით სისტემების დიზაინი კვლავ კრიტიკულად მნიშვნელოვანია. OpenAI მზადაა განაგრძოს სოციალური ინჟინერიის გავლენის კვლევა AI მოდელებზე და შეიმუშაოს მოწინავე თავდაცვითი საშუალებები. ეს აღმოჩენები ინტეგრირებულია როგორც მათ აპლიკაციის უსაფრთხოების არქიტექტურებში, ასევე მათი AI მოდელების მიმდინარე სასწავლო პროცესებში, რაც უზრუნველყოფს AI უსაფრთხოების პროაქტიულ და ადაპტირებულ მიდგომას მუდმივად ცვალებად საფრთხეების ლანდშაფტში. ეს წინდახედული სტრატეგია მიზნად ისახავს AI აგენტების როგორც ძლიერ, ისე თანდაყოლილად სანდო გახდომას, რაც ეხმიანება AI ეკოსისტემაში უსაფრთხოების გაძლიერების მცდელობებს, მათ შორის ისეთ ინიციატივებს, როგორიცაა მავნე AI გამოყენების შეფერხება.

ხშირად დასმული კითხვები

What is prompt injection in the context of AI agents?
Prompt injection refers to a type of attack where malicious instructions are subtly embedded within external content that an AI agent processes. The goal is to manipulate the agent into performing actions or revealing information that the user did not intend or authorize. These attacks exploit the AI's ability to interpret and follow instructions, even if those instructions originate from an untrusted source, effectively hijacking the agent's behavior for adversarial purposes. Early forms might be direct commands, but advanced forms leverage social engineering to be less detectable and more persuasive, requiring sophisticated countermeasures to maintain system integrity and user trust.
How has prompt injection evolved, and why is this significant?
Prompt injection has evolved from simple, explicit adversarial commands (e.g., direct instructions in a web page) to sophisticated social engineering tactics. Early attacks were often caught by basic filtering. However, as AI models became smarter, attackers started crafting prompts that blend malicious intent with seemingly legitimate context, mimicking human social engineering. This shift is significant because it means defenses can no longer rely solely on identifying malicious strings. Instead, they must address the broader challenge of resisting misleading or manipulative content in context, requiring a more holistic, systemic approach to security rather than just simple input filtering.
How does OpenAI defend against social engineering prompt injection attacks?
OpenAI employs a multi-layered defense strategy, drawing parallels from human social engineering risk management. This includes a 'three-actor system' perspective (user, agent, external world) where agents are given limitations to constrain potential impact. Key techniques include 'source-sink analysis' to detect dangerous data flows, Safe Url mechanisms that prompt user confirmation or block sensitive transmissions to third parties, and sandboxing for agentic tools like ChatGPT Canvas and Apps. The overarching goal is to ensure that critical actions or data transmissions do not happen silently, always prioritizing user safety and consent to maintain robust AI security.
What is Safe Url, and how does it protect AI agents and users?
Safe Url is a critical mitigation strategy developed by OpenAI designed to protect AI agents and users from unauthorized data exfiltration. It detects when information that an AI agent has learned during a conversation or interaction might be transmitted to an external, potentially malicious, third-party URL. When such a transmission is detected, Safe Url intervenes by either displaying the sensitive information to the user for explicit confirmation before sending it, or by blocking the transmission entirely and instructing the agent to find an alternative, secure method to fulfill the user's request. This mechanism ensures that sensitive data remains under user control, even if an agent is momentarily swayed by a social engineering prompt injection.
Why is user consent crucial for AI agents, especially with new capabilities?
User consent is paramount for AI agents, particularly as their capabilities expand to include browsing, interacting with external tools, and transmitting information. With advanced prompt injection and social engineering tactics, an agent might be tricked into performing actions that compromise privacy or security. Requiring explicit user consent for potentially dangerous actions—like transmitting sensitive data, navigating to external sites, or using external applications—ensures that users maintain ultimate control. This prevents silent compromises and empowers users to confirm or deny actions, acting as a crucial final layer of defense against manipulation and unauthorized behavior, aligning with principles of data privacy and user autonomy.
What is 'source-sink' analysis in the context of AI security?
Source-sink analysis is a security engineering approach used by OpenAI to identify and mitigate risks associated with data flow within AI systems. In this framework, a 'source' refers to any input mechanism through which an attacker can influence the system, such as untrusted external content, web pages, or emails processed by an AI agent. A 'sink' refers to a capability or action that, if exploited, could become dangerous in the wrong context, such as transmitting information to a third party, following a malicious link, or executing a tool. By analyzing potential paths from sources to sinks, security teams can implement controls to prevent unauthorized data movement or dangerous actions, even if an AI agent is partially compromised by a prompt injection attack. This method is fundamental to ensuring data integrity and system security.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება