Code Velocity
დეველოპერის ხელსაწყოები

აგენტის ხელსაწყოები: AI-ის მუშაობის გაუმჯობესება Claude-ის ოპტიმიზაციით

·7 წუთი კითხვა·Anthropic·ორიგინალი წყარო
გაზიარება
AI აგენტის ხელსაწყოს შეფასებისა და ოპტიმიზაციის ილუსტრაცია Claude Code-ის გამოყენებით გაუმჯობესებული მუშაობისთვის.

ხელსაწყოების გადამწყვეტი როლი AI აგენტის მუშაობაში

AI-ის სწრაფად განვითარებად ლანდშაფტში, ინტელექტუალური აგენტის ეფექტურობა მნიშვნელოვნად არის დამოკიდებული იმ ხელსაწყოების ხარისხსა და სარგებლიანობაზე, რომლებსაც ის ფლობს. რადგან ხელოვნური ინტელექტის მოდელები სულ უფრო მეტად კომპეტენტურები ხდებიან, რაც მათ საშუალებას აძლევს შეასრულონ რთული, მრავალსაფეხურიანი ამოცანები, მათი გარე სისტემებთან ურთიერთობის გზა – „ხელსაწყოების“ მეშვეობით – უმთავრესი ხდება. Anthropic, AI კვლევისა და განვითარების ლიდერი, გაიზიარა კრიტიკული შეხედულებები იმის შესახებ, თუ როგორ უნდა აშენდეს, შეფასდეს და ოპტიმიზდეს ეს ხელსაწყოები, რაც მნიშვნელოვნად აუმჯობესებს აგენტის მუშაობას.

ამ მიდგომის საფუძველში დევს მოდელის კონტექსტის პროტოკოლი (MCP), სისტემა, რომელიც შექმნილია დიდი ენობრივი მოდელის (LLM) აგენტების გასაძლიერებლად ფუნქციების ფართო სპექტრზე წვდომის მიწოდებით. თუმცა, მხოლოდ ხელსაწყოების მიწოდება საკმარისი არ არის; ისინი მაქსიმალურად ეფექტური უნდა იყვნენ. ეს სტატია იკვლევს Anthropic-ის დადასტურებულ ტექნიკებს აგენტური AI სისტემების გასაუმჯობესებლად, ხაზს უსვამს, თუ როგორ შეუძლიათ AI მოდელებს, როგორიცაა Claude, საკუთარი ხელსაწყოების ნაკრების ერთობლივად დახვეწა. საწყისი კონცეფციიდან ოპტიმიზებულ ხელსაწყომდე გზა მოიცავს პროტოტიპირებას, მკაცრ შეფასებას და თანამშრომლობით უკუკავშირის მარყუჟს თავად აგენტთან.

AI აგენტის ხელსაწყოების გაგება: ახალი პარადიგმა პროგრამული უზრუნველყოფისთვის

ტრადიციულად, პროგრამული უზრუნველყოფის შემუშავება დეტერმინისტულ პრინციპებზე მუშაობს: მოცემული იგივე შეყვანისას, ფუნქცია ყოველთვის ერთსა და იმავე გამოსავალს წარმოქმნის. განვიხილოთ მარტივი getWeather("NYC") გამოძახება; ის თანმიმდევრულად მოაქვს ნიუ-იორკის ამინდი იდენტური წესით. თუმცა, AI აგენტები, როგორიცაა Anthropic-ის Claude, მოქმედებენ როგორც არადეტერმინისტული სისტემები. ეს ნიშნავს, რომ მათი პასუხები შეიძლება განსხვავდებოდეს იდენტური საწყისი პირობების შემთხვევაშიც კი.

ეს ფუნდამენტური განსხვავება მოითხოვს პარადიგმის ცვლას აგენტებისთვის პროგრამული უზრუნველყოფის შექმნისას. AI აგენტებისთვის განკუთვნილი ხელსაწყოები არ არის მხოლოდ ფუნქციები ან API-ები სხვა დეველოპერებისთვის; ეს არის ინტერფეისები, რომლებიც შექმნილია ინტელექტუალური, მაგრამ ზოგჯერ არაპროგნოზირებადი ერთეულისთვის. როდესაც მომხმარებელი იკითხავს, „უნდა წავიღო დღეს ქოლგა?“, აგენტმა შეიძლება გამოიძახოს ამინდის ხელსაწყო, გამოიყენოს ზოგადი ცოდნა, ან თუნდაც მოითხოვოს ადგილმდებარეობის დაზუსტება. ზოგჯერ, აგენტებმა შეიძლება ჰალუცინაციები განიცადონ ან ვერ გაიგონ, როგორ გამოიყენონ ხელსაწყო სწორად.

ამიტომ, მიზანია გაიზარდოს „ზედაპირული ფართობი“, რომელზეც აგენტები შეიძლება იყვნენ ეფექტურები. ეს ნიშნავს ისეთი ხელსაწყოების შექმნას, რომლებიც არა მხოლოდ მყარი, არამედ „ერგონომიულიც“ იქნება აგენტებისთვის გამოსაყენებლად. საინტერესოა, რომ Anthropic-ის გამოცდილება გვიჩვენებს, რომ აგენტის არადეტერმინისტული ბუნების გათვალისწინებით შექმნილი ხელსაწყოები ხშირად აღმოჩნდება გასაკვირად ინტუიციური და ადვილად გასაგები ადამიანებისთვისაც. ეს პერსპექტივა ხელსაწყოების განვითარებაზე გადამწყვეტია ისეთი დახვეწილი მოდელების სრული პოტენციალის გამოსავლენად, როგორიცაა Claude Opus ან Claude Sonnet რეალურ სამყაროს აპლიკაციებში.

ეფექტური AI ხელსაწყოების შემუშავება: პროტოტიპიდან ოპტიმიზაციამდე

AI აგენტის ეფექტური ხელსაწყოების შექმნის გზა არის განმეორებადი პროცესი, რომელიც მოიცავს მშენებლობას, ტესტირებას და დახვეწას. Anthropic ხაზს უსვამს პრაქტიკულ მიდგომას, რომელიც იწყება სწრაფი პროტოტიპირებით და შემდეგ გადადის ყოვლისმმცველ შეფასებაზე.

სწრაფი პროტოტიპის შექმნა

იმის პროგნოზირება, თუ როგორ იმოქმედებენ აგენტები ხელსაწყოებთან, შეიძლება რთული იყოს პრაქტიკული გამოცდილების გარეშე. პირველი ნაბიჯი მოიცავს პროტოტიპის სწრაფად შექმნას. თუ დეველოპერები იყენებენ აგენტს, როგორიცაა Claude Code ხელსაწყოების შესაქმნელად, გადამწყვეტია კარგად სტრუქტურირებული დოკუმენტაციის მიწოდება ნებისმიერი ძირითადი პროგრამული ბიბლიოთეკის, API-ის ან SDK-ისთვის (MCP SDK-ის ჩათვლით). მარტივი 'llms.txt' ფაილები, რომლებიც ხშირად გვხვდება ოფიციალურ დოკუმენტაციის საიტებზე, განსაკუთრებით LLM-ისთვის მოსახერხებელია.

ეს პროტოტიპები შეიძლება შეფუთული იყოს ადგილობრივ MCP სერვერში ან დესკტოპის გაფართოებაში (DXT), რათა ხელი შეუწყოს ლოკალურ ტესტირებას Claude Code-ში ან Claude Desktop აპლიკაციაში. პროგრამული ტესტირებისთვის, ხელსაწყოები ასევე შეიძლება პირდაპირ გადაეცეს Anthropic API გამოძახებებს. ეს საწყისი ფაზა მოუწოდებს დეველოპერებს, პირადად გამოსცადონ ხელსაწყოები, შეაგროვონ მომხმარებლის უკუკავშირი და ჩამოაყალიბონ ინტუიცია მოსალოდნელი გამოყენების შემთხვევებისა და მოთხოვნების გარშემო, რომლებსაც ხელსაწყოები უნდა გაუმკლავდნენ.

ყოვლისმომცველი შეფასების ჩატარება

მას შემდეგ, რაც პროტოტიპი ფუნქციონალურია, შემდეგი კრიტიკული ნაბიჯი არის იმის გაზომვა, თუ რამდენად ეფექტურად იყენებს აგენტი ამ ხელსაწყოებს სისტემატური შეფასების მეშვეობით.

ეს მოიცავს შეფასების ამოცანების სიმრავლის გენერირებას, რომლებიც დაფუძნებულია რეალურ სამყაროს სცენარებზე.

შეფასების ამოცანების გენერირება

შეფასების ამოცანები უნდა იყოს შთაგონებული რეალური მომხმარებლის მოთხოვნებით და გამოიყენოს რეალისტური მონაცემთა წყაროები. მნიშვნელოვანია თავიდან იქნას აცილებული გამარტივებული „სანდბოქსის“ გარემოები, რომლებიც არასაკმარისად ამოწმებენ ხელსაწყოების სირთულეს. ძლიერი შეფასების ამოცანები ხშირად მოითხოვს აგენტებს, რომ გააკეთონ ხელსაწყოების მრავალჯერადი გამოძახება გადაწყვეტის მისაღწევად.

ამოცანის ტიპიძლიერი მაგალითისუსტი მაგალითი
შეხვედრის დაგეგმვა'დაგეგმეთ შეხვედრა ჯეინთან მომავალ კვირას, რათა განვიხილოთ ჩვენი უახლესი Acme Corp პროექტი. დაურთეთ ჩვენი ბოლო პროექტის დაგეგმვის შეხვედრის ჩანაწერები და დაჯავშნეთ საკონფერენციო ოთახი.''დაგეგმეთ შეხვედრა jane@acme.corp-თან მომავალ კვირას.'
მომხმარებლის მომსახურება'მომხმარებლის ID 9182-მა განაცხადა, რომ მათ სამჯერ ჩამოეჭრათ თანხა ერთი შენაძენის მცდელობისთვის. იპოვეთ ყველა შესაბამისი ჟურნალის ჩანაწერი და დაადგინეთ, დაზარალდა თუ არა სხვა მომხმარებლები იმავე პრობლემით.''მოძებნეთ გადახდის ჟურნალებში 'purchase_complete' და 'customer_id=9182'.'
შენარჩუნების ანალიზი'მომხმარებელმა სარა ჩენმა ახლახან გააუქმა მოთხოვნა. მოამზადეთ შენარჩუნების შეთავაზება. განსაზღვრეთ: (1) რატომ ტოვებენ ისინი, (2) რომელი შენარჩუნების შეთავაზება იქნება ყველაზე მიმზიდველი და (3) ნებისმიერი რისკ-ფაქტორი, რომლის შესახებაც უნდა ვიცოდეთ შეთავაზების გაკეთებამდე.''იპოვეთ გაუქმების მოთხოვნა მომხმარებლის ID 45892-ის მიერ.'

თითოეული მოთხოვნა უნდა იყოს დაწყვილებული დასადასტურებელ პასუხთან ან შედეგთან. ვალიდატორები შეიძლება იყოს მარტივი სტრიქონული შედარებებიდან დაწყებული, უფრო მოწინავე შეფასებებამდე, სადაც აგენტი აფასებს პასუხს. გადამწყვეტია თავიდან იქნას აცილებული ზედმეტად მკაცრი ვალიდატორები, რომლებმაც შეიძლება უარყონ სწორი პასუხები მცირე ფორმატირების განსხვავებების გამო. სურვილისამებრ, დეველოპერებს შეუძლიათ მიუთითონ მოსალოდნელი ხელსაწყოების გამოძახებები, თუმცა ეს სიფრთხილით უნდა გაკეთდეს, რათა თავიდან იქნას აცილებული ზედმეტად დეტალური მითითება ან კონკრეტულ სტრატეგიებზე მორგება, რადგან აგენტებმა შეიძლება იპოვონ პრობლემის გადასაჭრელად მრავალი სწორი გზა.

შეფასების პროგრამულად ჩატარება

Anthropic გირჩევთ შეფასებების პროგრამულად ჩატარებას LLM API-ის პირდაპირი გამოძახებების გამოყენებით მარტივ აგენტურ მარყუჟებში (მაგალითად, while მარყუჟები, რომლებიც ენაცვლება LLM API-სა და ხელსაწყოების გამოძახებებს). თითოეულ შეფასების აგენტს ეძლევა ერთი ამოცანის მოთხოვნა და ხელსაწყოები. ამ აგენტებისთვის სისტემურ მოთხოვნებში სასარგებლოა მათთვის დავალების მიცემა, რომ გამოიტანონ სტრუქტურირებული პასუხის ბლოკები (ვალიდაციისთვის), არგუმენტაცია და უკუკავშირის ბლოკები ხელსაწყოს გამოძახებისა და პასუხის ბლოკებამდე ადრე. ეს ხელს უწყობს აზროვნების ჯაჭვის (CoT) ქცევებს, რაც აძლიერებს LLM-ის ეფექტურ ინტელექტს. Claude-ის „ჩართული აზროვნების“ ფუნქცია გთავაზობთ მსგავს ფუნქციონალურობას, რაც გვაწვდის ინფორმაციას იმის შესახებ, თუ რატომ აკეთებენ აგენტები კონკრეტულ ხელსაწყოების არჩევანს.

უმაღლესი დონის სიზუსტის გარდა, სასიცოცხლოდ მნიშვნელოვანია მეტრების შეგროვება, როგორიცაა მთლიანი შესრულების დრო, ხელსაწყოების გამოძახების რაოდენობა, ტოკენების მოხმარება და ხელსაწყოების შეცდომები. ხელსაწყოების გამოძახების თვალყურის დევნამ შეიძლება გამოავლინოს აგენტების საერთო სამუშაო პროცესები, რაც მიუთითებს ხელსაწყოების კონსოლიდაციის ან დახვეწის შესაძლებლობებზე.

ხელსაწყოების ოპტიმიზაცია AI-ის მეშვეობით: Claude-ის თანამშრომლობითი მიდგომა

შეფასების შედეგების ანალიზი კრიტიკული ფაზაა. თავად აგენტები შეიძლება იყვნენ ფასდაუდებელი პარტნიორები ამ პროცესში, პრობლემების აღმოჩენაში და უკუკავშირის მიწოდებაში. თუმცა, მათი უკუკავშირი ყოველთვის არ არის აშკარა; რასაც ისინი გამოტოვებენ, შეიძლება ისეთივე მნიშვნელოვანი იყოს, როგორც ის, რასაც შეიცავენ. დეველოპერებმა უნდა შეისწავლონ აგენტის არგუმენტაცია (CoT), გადახედონ ნედლ ტრანსკრიპტებს (ხელსაწყოების გამოძახებებისა და პასუხების ჩათვლით) და გააანალიზონ ხელსაწყოების გამოძახების მეტრები. მაგალითად, ჭარბმა ხელსაწყოების გამოძახებებმა შეიძლება მიუთითოს პაგინაციის ან ტოკენების ლიმიტების კორექტირების საჭიროებაზე, ხოლო არასწორი პარამეტრების გამო ხშირმა შეცდომებმა შეიძლება მიუთითოს ხელსაწყოების გაუგებარ აღწერილობებზე.

Anthropic-ის გამორჩეული მაგალითი იყო Claude-ის ვებ ძიების ხელსაწყო, სადაც ის არასაჭიროდ ამატებდა '2025'-ს მოთხოვნებს, რამაც შედეგები დაამახინჯა. ხელსაწყოს აღწერილობის გაუმჯობესება იყო გასაღები Claude-ის სწორი მიმართულებით წარმართვისთვის.

Anthropic-ის მეთოდოლოგიის ყველაზე ინოვაციური ასპექტი არის აგენტებისთვის საკუთარი შედეგების გაანალიზებისა და ხელსაწყოების გაუმჯობესების შესაძლებლობა. შეფასების ტრანსკრიპტების კონკატენაციით და მათი Claude Code-ში შეყვანით, დეველოპერებს შეუძლიათ გამოიყენონ Claude-ის ექსპერტიზა რთული ურთიერთქმედებების ანალიზსა და ხელსაწყოების რეფაქტორინგში. Claude გამოირჩევა ხელსაწყოების იმპლემენტაციებსა და აღწერილობებს შორის თანმიმდევრულობის უზრუნველყოფით, მრავალი ცვლილების შემთხვევაშიც კი. ეს მძლავრი უკუკავშირის მარყუჟი ნიშნავს, რომ Anthropic-ის საკუთარი რჩევების უმეტესი ნაწილი ხელსაწყოების განვითარებაზე გენერირებული და დახვეწილია აგენტების დახმარებით ოპტიმიზაციის სწორედ ამ პროცესის მეშვეობით, რაც ასახავს პროგრამული უზრუნველყოფის შემუშავებაში აგენტური სამუშაო პროცესების მზარდ ტენდენციას.

ძირითადი პრინციპები მაღალი ხარისხის აგენტის ხელსაწყოების შემუშავებისთვის

ფართო ექსპერიმენტებისა და აგენტებით განპირობებული ოპტიმიზაციის მეშვეობით, Anthropic-მა გამოავლინა რამდენიმე ძირითადი პრინციპი AI აგენტებისთვის მაღალი ხარისხის ხელსაწყოების შესაქმნელად:

  1. სტრატეგიული ხელსაწყოების შერჩევა: გონივრულად აირჩიეთ რომელი ხელსაწყოები დანერგოთ და, რაც მთავარია, რომელი არა. აგენტის ზედმეტი ხელსაწყოებით გადატვირთვამ შეიძლება გამოიწვიოს დაბნეულობა და არაეფექტურობა.
  2. მკაფიო სახელების სივრცე: განსაზღვრეთ მკაფიო საზღვრები და ფუნქციები თითოეული ხელსაწყოსთვის ეფექტური სახელების სივრცის მეშვეობით. ეს ეხმარება აგენტებს გაიგონ თითოეული შესაძლებლობის ზუსტი ფარგლები და დანიშნულება.
  3. მნიშვნელოვანი კონტექსტის დაბრუნება: ხელსაწყოებმა უნდა დაუბრუნონ აგენტს ლაკონური და შესაბამისი კონტექსტი, რაც საშუალებას მისცემს ინფორმირებული გადაწყვეტილებების მიღებას ზედმეტი ან უცხო ინფორმაციის გარეშე.
  4. ტოკენის ეფექტურობის ოპტიმიზაცია: ხელსაწყოების პასუხების ოპტიმიზაცია ტოკენის ეფექტურობისთვის. LLM-ის ურთიერთქმედებებში, ყოველი ტოკენი მნიშვნელოვანია როგორც ღირებულებისთვის, ასევე დამუშავების სიჩქარისთვის.
  5. ზუსტი მოთხოვნის ინჟინერია: ზედმიწევნით შექმენით ხელსაწყოების აღწერილობები და სპეციფიკაციები. მკაფიო, ორაზროვანი ინსტრუქციები სასიცოცხლოდ მნიშვნელოვანია აგენტებისთვის, რათა სწორად განმარტონ და გამოიყენონ ხელსაწყოები.

ამ პრინციპების დაცვით და განმეორებადი, აგენტების დახმარებით განვითარების ციკლის მიღებით, დეველოპერებს შეუძლიათ შექმნან მყარი, ეფექტური და მაღალეფექტური ხელსაწყოები, რომლებიც მნიშვნელოვნად აუმჯობესებენ AI აგენტების მუშაობას და შესაძლებლობებს, რაც გააფართოებს იმ საზღვრებს, რისი მიღწევაც შეუძლიათ ამ ინტელექტუალურ სისტემებს.

ორიგინალი წყარო

https://www.anthropic.com/engineering/writing-tools-for-agents

ხშირად დასმული კითხვები

What is the Model Context Protocol (MCP) and how does it relate to AI agents?
The Model Context Protocol (MCP) is a framework designed to empower large language model (LLM) agents by providing them with access to potentially hundreds of tools, enabling them to solve complex real-world tasks. It defines a standardized way for agents to interact with external systems and data sources, transforming how AI agents can leverage deterministic software. Rather than agents relying solely on their internal knowledge, MCP allows them to use specialized tools, much like a human uses various applications or references to complete tasks, thus significantly expanding their capabilities and effectiveness across diverse domains.
Why is designing tools specifically for non-deterministic AI agents different from traditional software development?
Traditional software development typically involves creating contracts between deterministic systems, where a given input always yields the same predictable output. AI agents, however, are non-deterministic, meaning their responses can vary even with identical starting conditions. This fundamental difference requires rethinking tool design. Instead of assuming precise, static interactions, tools for AI agents must be robust enough to handle varied agentic reasoning, potential misunderstandings, or even hallucinations. The goal is to make tools 'ergonomic' for agents, facilitating their diverse problem-solving strategies, which often results in surprisingly intuitive tools for human users too.
What are the critical steps in evaluating the performance of AI agent tools?
Evaluating AI agent tools involves a systematic approach starting with generating a diverse set of real-world evaluation tasks. These tasks should be complex enough to stress-test tools, potentially requiring multiple tool calls. Next, the evaluation is run programmatically, typically using agentic loops that simulate how an agent would interact with the tools. Key metrics collected include accuracy, total runtime, number of tool calls, token consumption, and tool errors. Finally, analyzing results involves having agents provide reasoning and feedback, reviewing raw transcripts, and identifying patterns in tool usage or errors to pinpoint areas for improvement in tool descriptions, schemas, or implementations.
How can AI agents like Claude optimize their own tools?
Anthropic demonstrates that AI agents, particularly models like Claude Code, can play a pivotal role in optimizing the very tools they use. This is achieved by feeding the agent transcripts and results from tool evaluations. Claude can then analyze these interactions, identify inefficiencies, inconsistencies, or areas where tool descriptions are unclear, and suggest refactorings. For instance, it can ensure that tool implementations and descriptions remain self-consistent after changes or recommend adjustments to parameters for better token efficiency. This collaborative approach leverages the agent's analytical capabilities to continuously improve the quality and ergonomics of its toolset, leading to enhanced performance.
What are the key principles for writing high-quality tools for AI agents?
Several core principles guide the creation of effective tools for AI agents. Firstly, judiciously choosing which tools to implement (and which to omit) is crucial for agent clarity and efficiency. Secondly, namespacing tools clearly defines their functional boundaries, reducing ambiguity for the agent. Thirdly, tools should return meaningful and concise context to agents, aiding their decision-making. Fourthly, optimizing tool responses for token efficiency is vital for managing costs and processing speed in LLM interactions. Lastly, meticulous prompt-engineering of tool descriptions and specifications ensures agents accurately understand and utilize each tool's purpose and capabilities, minimizing errors and maximizing effectiveness.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება