Code Velocity
Izstrādātāju rīki

Aģentu rīki: mākslīgā intelekta veiktspējas uzlabošana ar Claude optimizāciju

·7 min lasīšana·Anthropic·Sākotnējais avots
Dalīties
Ilustrācija par MI aģenta rīku novērtēšanu un optimizāciju, izmantojot Claude Code, lai uzlabotu veiktspēju.

Rīku izšķirošā loma MI aģentu veiktspējā

Strauji mainīgajā MI ainavā inteliģenta aģenta efektivitāte ir būtiski atkarīga no tā rīku kvalitātes un lietderības. Tā kā mākslīgā intelekta modeļi kļūst arvien spējīgāki, ļaujot tiem veikt sarežģītus, daudzpakāpju uzdevumus, veids, kā tie mijiedarbojas ar ārējām sistēmām – izmantojot "rīkus" – kļūst izšķirošs. Anthropic, kas ir vadošais uzņēmums MI pētniecībā un attīstībā, ir dalījies ar būtiskiem ieskatiem par to, kā veidot, novērtēt un pat optimizēt šos rīkus, dramatiski uzlabojot aģentu veiktspēju.

Šīs pieejas pamatā ir Modeļa konteksta protokols (MCP) – sistēma, kas izstrādāta, lai pilnvarotu lielo valodu modeļu (LLM) aģentus ar piekļuvi plašam funkciju klāstam. Tomēr ar rīku nodrošināšanu vien nepietiek; tiem jābūt maksimāli efektīviem. Šis raksts pēta Anthropic pārbaudītās metodes aģentisko MI sistēmu uzlabošanai, uzsverot, kā MI modeļi, piemēram, Claude, var sadarbīgi pilnveidot savu rīku komplektu. Ceļš no sākotnējās koncepcijas līdz optimizētam rīkam ietver prototipu veidošanu, rūpīgu novērtēšanu un sadarbības atgriezeniskās saites cilpu ar pašu aģentu.

Izpratne par MI aģentu rīkiem: jauna programmatūras paradigma

Tradicionāli programmatūras izstrāde balstās uz determinētiem principiem: dodot vienu un to pašu ievadi, funkcija vienmēr radīs vienu un to pašu izvadi. Apsveriet vienkāršu getWeather("NYC") izsaukumu; tas konsekventi iegūst Ņujorkas laikapstākļus identiskā veidā. Tomēr MI aģenti, piemēram, Anthropic Claude, darbojas kā nedeterminētiskas sistēmas. Tas nozīmē, ka to atbildes var atšķirties pat identiskos sākotnējos apstākļos.

Šī fundamentālā atšķirība prasa paradigmas maiņu, projektējot programmatūru aģentiem. MI aģentu rīki nav tikai funkcijas vai API citiem izstrādātājiem; tie ir saskarnes, kas paredzētas inteliģentai, tomēr dažkārt neparedzamai entītijai. Kad lietotājs jautā: "Vai man šodien jāņem lietussargs?", aģents var izsaukt laikapstākļu rīku, izmantot vispārējas zināšanas vai pat lūgt precizējumu par atrašanās vietu. Reizēm aģenti var halucinēt vai nesaprast, kā pareizi lietot rīku.

Tāpēc mērķis ir palielināt "virsmas laukumu", kurā aģenti var būt efektīvi. Tas nozīmē veidot rīkus, kas ir ne tikai robusti, bet arī "ergonomiski", lai aģenti tos varētu izmantot. Interesanti, ka Anthropic pieredze liecina, ka rīki, kas izstrādāti, ņemot vērā aģenta nedeterminēto dabu, bieži vien izrādās pārsteidzoši intuitīvi un viegli saprotami arī cilvēkiem. Šī perspektīva uz rīku izstrādi ir galvenais elements, lai pilnībā atraisītu tādu sarežģītu modeļu kā Claude Opus vai Claude Sonnet potenciālu reālās pasaules lietojumprogrammās.

Efektīvu MI rīku izstrāde: no prototipa līdz optimizācijai

Efektīvu MI aģentu rīku izveides process ir iteratīvs process, kas ietver veidošanu, testēšanu un pilnveidošanu. Anthropic uzsver praktisku pieeju, sākot ar ātru prototipu izveidi un pēc tam pārejot pie visaptverošas novērtēšanas.

Ātra prototipa izveide

Paredzēt, kā aģenti mijiedarbosies ar rīkiem, var būt izaicinājums bez praktiskas pieredzes. Pirmais solis ietver ātras prototipa izveidi. Ja izstrādātāji izmanto aģentu, piemēram, Claude Code, rīku izveidei, ir ļoti svarīgi nodrošināt labi strukturētu dokumentāciju jebkādām pamatā esošajām programmatūras bibliotēkām, API vai SDK (ieskaitot MCP SDK). Plakanie 'llms.txt' faili, kas bieži atrodami oficiālajās dokumentācijas vietnēs, ir īpaši draudzīgi LLM.

Šos prototipus var ietvert lokālā MCP serverī vai Desktop paplašinājumā (DXT), lai atvieglotu vietējo testēšanu Claude Code vai Claude Desktop lietotnē. Programmatiskai testēšanai rīkus var arī tieši nodot Anthropic API izsaukumos. Šī sākotnējā fāze mudina izstrādātājus personīgi testēt rīkus, vākt lietotāju atsauksmes un veidot intuīciju par paredzētajiem lietošanas gadījumiem un promtiem, ko rīki ir paredzēti apstrādāt.

Visaptverošas novērtēšanas veikšana

Kad prototips ir funkcionāls, nākamais kritiskais solis ir izmērīt, cik efektīvi aģents izmanto šos rīkus, veicot sistemātisku novērtēšanu. Tas ietver daudzu novērtēšanas uzdevumu ģenerēšanu, kas balstīti uz reālās pasaules scenārijiem.

Novērtēšanas uzdevumu ģenerēšana

Novērtēšanas uzdevumiem jābūt iedvesmotiem no faktiskajiem lietotāju vaicājumiem un jāizmanto reālistiski datu avoti. Ir svarīgi izvairīties no vienkāršotām "smilšu kastes" vidēm, kas nepietiekami pārbauda rīku sarežģītību. Spēcīgi novērtēšanas uzdevumi bieži prasa aģentiem veikt vairākus rīku izsaukumus, lai sasniegtu risinājumu.

Uzdevuma veidsSpēcīgs piemērsVājš piemērs
Sanāksmes plānošana"Ieplānojiet sanāksmi ar Džeinu nākamnedēļ, lai apspriestu mūsu jaunāko Acme Corp projektu. Pievienojiet piezīmes no mūsu pēdējās projekta plānošanas sanāksmes un rezervējiet konferenču zāli.""Ieplānojiet sanāksmi ar jane@acme.corp nākamnedēļ."
Klientu apkalpošana"Klients ar ID 9182 ziņoja, ka viņam trīs reizes tika iekasēta maksa par vienu pirkuma mēģinājumu. Atrodiet visus attiecīgos žurnāla ierakstus un noskaidrojiet, vai citi klienti tika ietekmēti ar to pašu problēmu.""Meklēt maksājumu žurnālos 'purchase_complete' un 'customer_id=9182'."
Atrises analīze"Kliente Sāra Čena tikko iesniedza atcelšanas pieprasījumu. Sagatavojiet saglabāšanas piedāvājumu. Nosakiet: (1) kāpēc viņi aiziet, (2) kāds saglabāšanas piedāvājums būtu vispievilcīgākais, un (3) visus riska faktorus, kas mums jāņem vērā pirms piedāvājuma izteikšanas.""Atrodiet atcelšanas pieprasījumu pēc klienta ID 45892."

Katram promptam jābūt savienotam ar pārbaudāmu atbildi vai rezultātu. Pārbaudītāji var būt no vienkāršām virkņu salīdzināšanām līdz sarežģītākām novērtēšanām, piesaistot aģentu atbildes vērtēšanai. Ir ļoti svarīgi izvairīties no pārmērīgi stingriem pārbaudītājiem, kas varētu noraidīt derīgas atbildes nelielu formatēšanas atšķirību dēļ. Pēc izvēles izstrādātāji var norādīt paredzamos rīku izsaukumus, tomēr tas jādara uzmanīgi, lai izvairītos no pārmērīgas specifikācijas vai pārmērīgas pielāgošanās konkrētām stratēģijām, jo aģenti var atrast vairākus derīgus ceļus uz risinājumu.

Novērtēšanas veikšana programmatiski

Anthropic iesaka veikt novērtēšanu programmatiski, izmantojot tiešus LLM API izsaukumus vienkāršās aģentiskās cilpās (piemēram, while cilpas, kas mainās starp LLM API un rīku izsaukumiem). Katram novērtēšanas aģentam tiek dots viens uzdevuma prompts un rīki. Sistēmas promtos šiem aģentiem ir lietderīgi norādīt tiem izvadīt strukturētus atbildes blokus (pārbaudei), pamatojumu un atgriezeniskās saites blokus pirms rīku izsaukšanas un atbildes blokiem. Tas veicina domāšanas ķēdes (CoT) uzvedību, palielinot LLM efektīvo inteliģenci. Claude 'saliktās domāšanas' funkcija piedāvā līdzīgu funkcionalitāti 'ārpus kastes', sniedzot ieskatu par to, kāpēc aģenti veic konkrētas rīku izvēles.

Papildus augstākā līmeņa precizitātei ir vitāli svarīgi apkopot tādus rādītājus kā kopējais izpildes laiks, rīku izsaukumu skaits, marķieru patēriņš un rīku kļūdas. Rīku izsaukumu izsekošana var atklāt biežas aģentu darbplūsmas, ierosinot iespējas rīku konsolidācijai vai pilnveidošanai.

Rīku optimizēšana ar MI: Claude sadarbības pieeja

Novērtēšanas rezultātu analīze ir kritiska fāze. Paši aģenti var būt nenovērtējami partneri šajā procesā, pamanot problēmas un sniedzot atsauksmes. Tomēr to atsauksmes ne vienmēr ir skaidras; tas, ko viņi izlaiž, var būt tikpat zīmīgi kā tas, ko viņi iekļauj. Izstrādātājiem rūpīgi jāizskata aģentu pamatojums (CoT), jāpārskata neapstrādāti transkripti (ieskaitot rīku izsaukumus un atbildes) un jāanalizē rīku izsaukšanas metrikas. Piemēram, lieki rīku izsaukumi var liecināt par nepieciešamību pielāgot lappušu numerāciju vai marķieru ierobežojumus, savukārt biežas kļūdas nepareizu parametru dēļ var norādīt uz neskaidriem rīku aprakstiem.

Ievērojams piemērs no Anthropic ietvēra Claude tīmekļa meklēšanas rīku, kur tas nevajadzīgi pievienoja '2025' vaicājumiem, kropļojot rezultātus. Rīka apraksta uzlabošana bija galvenais, lai virzītu Claude pareizajā virzienā.

Anthropic metodoloģijas inovatīvākais aspekts ir spēja ļaut aģentiem analizēt savus rezultātus un uzlabot savus rīkus. Savienojot novērtēšanas transkriptus un ievadot tos Claude Code, izstrādātāji var izmantot Claude ekspertīzi sarežģītu mijiedarbību analīzē un rīku refaktorizācijā. Claude izcili nodrošina konsekvenci starp rīku ieviešanu un aprakstiem pat pēc daudzām izmaiņām. Šī jaudīgā atgriezeniskās saites cilpa nozīmē, ka liela daļa Anthropic pašu padomu par rīku izstrādi ir ģenerēta un pilnveidota tieši ar šo aģenta atbalstīto optimizācijas procesu, atspoguļojot pieaugošo aģentisko darbplūsmu tendenci programmatūras izstrādē.

Galvenie principi augstas kvalitātes aģentu rīku izstrādē

Veicot plašus eksperimentus un aģenta vadītu optimizāciju, Anthropic ir identificējis vairākus pamatprincipus, kas jāievēro, lai izveidotu augstas kvalitātes rīkus MI aģentiem:

  1. Stratēģiskā rīku izvēle: Gudri izvēlieties, kurus rīkus ieviest, un, kas ir kritiski, kurus neieviest. Pārslogojot aģentu ar nevajadzīgiem rīkiem, var rasties apjukums un neefektivitāte.
  2. Skaidra nosaukumu telpu definēšana: Skaidri definējiet katra rīka robežas un funkcionalitāti, izmantojot efektīvu nosaukumu telpu definēšanu. Tas palīdz aģentiem saprast katras iespējas precīzu darbības jomu un mērķi.
  3. Jēgpilna konteksta atgriešana: Rīkiem jānodrošina kodolīgs un atbilstošs konteksts aģentam, ļaujot pieņemt informētus lēmumus bez gariem vai nevajadzīgiem vārdiem.
  4. Marķieru efektivitātes optimizācija: Optimizējiet rīku atbildes, lai tās būtu marķieru ziņā efektīvas. LLM mijiedarbībā katrs marķieris ir svarīgs gan izmaksu, gan apstrādes ātruma ziņā.
  5. Precīza prompt-inženierija: Rūpīgi veiciet rīku aprakstu un specifikāciju prompt-inženieriju. Skaidras, nepārprotamas instrukcijas ir vitāli svarīgas, lai aģenti pareizi interpretētu un izmantotu rīkus.

Ievērojot šos principus un pieņemot iteratīvu, aģenta atbalstītu izstrādes ciklu, izstrādātāji var veidot robustus, efektīvus un ļoti lietderīgus rīkus, kas ievērojami uzlabo MI aģentu veiktspēju un iespējas, paplašinot robežas tam, ko šīs inteliģentās sistēmas var sasniegt.

Bieži uzdotie jautājumi

What is the Model Context Protocol (MCP) and how does it relate to AI agents?
The Model Context Protocol (MCP) is a framework designed to empower large language model (LLM) agents by providing them with access to potentially hundreds of tools, enabling them to solve complex real-world tasks. It defines a standardized way for agents to interact with external systems and data sources, transforming how AI agents can leverage deterministic software. Rather than agents relying solely on their internal knowledge, MCP allows them to use specialized tools, much like a human uses various applications or references to complete tasks, thus significantly expanding their capabilities and effectiveness across diverse domains.
Why is designing tools specifically for non-deterministic AI agents different from traditional software development?
Traditional software development typically involves creating contracts between deterministic systems, where a given input always yields the same predictable output. AI agents, however, are non-deterministic, meaning their responses can vary even with identical starting conditions. This fundamental difference requires rethinking tool design. Instead of assuming precise, static interactions, tools for AI agents must be robust enough to handle varied agentic reasoning, potential misunderstandings, or even hallucinations. The goal is to make tools 'ergonomic' for agents, facilitating their diverse problem-solving strategies, which often results in surprisingly intuitive tools for human users too.
What are the critical steps in evaluating the performance of AI agent tools?
Evaluating AI agent tools involves a systematic approach starting with generating a diverse set of real-world evaluation tasks. These tasks should be complex enough to stress-test tools, potentially requiring multiple tool calls. Next, the evaluation is run programmatically, typically using agentic loops that simulate how an agent would interact with the tools. Key metrics collected include accuracy, total runtime, number of tool calls, token consumption, and tool errors. Finally, analyzing results involves having agents provide reasoning and feedback, reviewing raw transcripts, and identifying patterns in tool usage or errors to pinpoint areas for improvement in tool descriptions, schemas, or implementations.
How can AI agents like Claude optimize their own tools?
Anthropic demonstrates that AI agents, particularly models like Claude Code, can play a pivotal role in optimizing the very tools they use. This is achieved by feeding the agent transcripts and results from tool evaluations. Claude can then analyze these interactions, identify inefficiencies, inconsistencies, or areas where tool descriptions are unclear, and suggest refactorings. For instance, it can ensure that tool implementations and descriptions remain self-consistent after changes or recommend adjustments to parameters for better token efficiency. This collaborative approach leverages the agent's analytical capabilities to continuously improve the quality and ergonomics of its toolset, leading to enhanced performance.
What are the key principles for writing high-quality tools for AI agents?
Several core principles guide the creation of effective tools for AI agents. Firstly, judiciously choosing which tools to implement (and which to omit) is crucial for agent clarity and efficiency. Secondly, namespacing tools clearly defines their functional boundaries, reducing ambiguity for the agent. Thirdly, tools should return meaningful and concise context to agents, aiding their decision-making. Fourthly, optimizing tool responses for token efficiency is vital for managing costs and processing speed in LLM interactions. Lastly, meticulous prompt-engineering of tool descriptions and specifications ensures agents accurately understand and utilize each tool's purpose and capabilities, minimizing errors and maximizing effectiveness.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties