Code Velocity
Arendajatööriistad

Agenditööriistad: tehisintellekti jõudluse parandamine Claude'i optimeerimisega

·7 min lugemist·Anthropic·Algallikas
Jaga
Illustratsioon AI agendi tööriistade hindamisest ja optimeerimisest Claude Code'i abil parema jõudluse saavutamiseks.

Tööriistade kriitiline roll AI agentide jõudluses

Kiiresti arenevas AI maastikul sõltub intelligentse agendi tõhusus oluliselt tema käsutuses olevate tööriistade kvaliteedist ja kasulikkusest. Kuna tehisintellekti mudelid muutuvad üha võimekamaks, võimaldades neil täita keerulisi mitmeastmelisi ülesandeid, muutub nende suhtlus väliste süsteemidega – "tööriistade" kaudu – ülimalt oluliseks. Anthropic, AI uurimis- ja arendustegevuse liider, on jaganud olulisi teadmisi nende tööriistade ehitamise, hindamise ja isegi optimeerimise kohta, suurendades märkimisväärselt agentide jõudlust.

Selle lähenemisviisi keskmes on mudeli kontekstiprotokoll (MCP), süsteem, mis on loodud suurte keelemudeli (LLM) agentide võimestamiseks, pakkudes neile juurdepääsu laiale funktsionaalsuste hulgale. Siiski ei piisa lihtsalt tööriistade pakkumisest; need peavad olema maksimaalselt tõhusad. See artikkel süveneb Anthropicu tõestatud tehnikatesse agentpõhiste AI süsteemide täiustamisel, rõhutades, kuidas AI mudelid nagu Claude saavad koostöös oma tööriistakomplekte viimistleda. Teekond algsest kontseptsioonist optimeeritud tööriistani hõlmab prototüüpimist, ranget hindamist ja koostööpõhist tagasiside tsüklit agendiga endaga.

AI agenditööriistade mõistmine: uus tarkvara paradigma

Traditsiooniliselt toimib tarkvaraarendus deterministlikel põhimõtetel: sama sisendi korral annab funktsioon alati sama väljundi. Mõelge lihtsale getWeather("NYC") kutsele; see hangib järjepidevalt New Yorgi ilma identsel viisil. AI agendid, nagu Anthropicu Claude, toimivad aga mittedeterministlike süsteemidena. See tähendab, et nende vastused võivad erineda isegi identsete algtingimuste korral.

See põhimõtteline erinevus nõuab paradigma muutust agentidele tarkvara loomisel. AI agentide tööriistad ei ole lihtsalt funktsioonid või API-d teistele arendajatele; need on liidesed, mis on loodud intelligentsele, kuid mõnikord ettearvamatule olemile. Kui kasutaja küsib: "Kas ma peaksin täna vihmavarju kaasa võtma?", võib agent kasutada ilmatööriista, üldisi teadmisi või isegi küsida asukoha kohta selgitust. Mõnikord võivad agendid hallutsineerida või ei suuda tööriista õigesti kasutada.

Seetõttu on eesmärk suurendada "pindala", mille ulatuses agendid saavad tõhusad olla. See tähendab selliste tööriistade loomist, mis ei ole mitte ainult robustsed, vaid ka agentidele kasutamiseks "ergonoomilised". Huvitaval kombel näitab Anthropicu kogemus, et tööriistad, mis on loodud agendi mittedeterministlikku olemust silmas pidades, osutuvad sageli üllatavalt intuitiivseks ja kergesti arusaadavaks ka inimestele. See perspektiiv tööriistade arendamisel on võtmetähtsusega, et avada keerukate mudelite nagu Claude Opus või Claude Sonnet täielik potentsiaal reaalses maailmas.

Tõhusate AI tööriistade arendamine: prototüübist optimeerimiseni

Tõhusate AI agenditööriistade loomise teekond on iteratiivne protsess, mis hõlmab ehitamist, testimist ja viimistlemist. Anthropic rõhutab praktilist lähenemist, alustades kiire prototüüpimisega ja liikudes seejärel põhjaliku hindamise juurde.

Kiire prototüübi loomine

Agentide tööriistadega suhtluse ettenägemine võib olla keeruline ilma praktilise kogemuseta. Esimene samm hõlmab kiire prototüübi loomist. Kui arendajad kasutavad tööriistade loomiseks agenti nagu Claude Code, on hästi struktureeritud dokumentatsiooni pakkumine mis tahes aluseks olevate tarkvarateekide, API-de või SDK-de (sealhulgas MCP SDK) jaoks ülioluline. Lamedad 'llms.txt' failid, mis sageli leiduvad ametlikel dokumentatsioonilehtedel, on eriti LLM-sõbralikud.

Neid prototüüpe saab mähkida kohalikku MCP serverisse või töölaua laiendusse (DXT), et hõlbustada kohalikku testimist Claude Code'is või Claude Desktop rakenduses. Programmiliseks testimiseks saab tööriistu otse Anthropicu API kutsetesse edastada. See esialgne faas julgustab arendajaid tööriistu isiklikult testima, koguma kasutajatagasisidet ja looma intuitsiooni oodatavate kasutusjuhtumite ja viipade kohta, mida tööriistad peaksid käsitlema.

Põhjaliku hindamise läbiviimine

Kui prototüüp on funktsionaalne, on järgmine kriitiline samm mõõta, kui tõhusalt agent neid tööriistu süstemaatilise hindamise kaudu kasutab. See hõlmab paljude hindamisülesannete genereerimist, mis põhinevad reaalse maailma stsenaariumidel.

Hindamisülesannete genereerimine

Hindamisülesanded peaksid olema inspireeritud tegelikest kasutajapäringutest ja kasutama realistlikke andmeallikaid. Oluline on vältida lihtsustatud "liivakasti" keskkondi, mis ei pane tööriistade keerukust piisavalt proovile. Tugevad hindamisülesanded nõuavad sageli agentidelt mitme tööriistakutse tegemist lahenduse saavutamiseks.

| Ülesande tüüp | Tugev näide | Nõrk näide | | :-------- | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | :--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------_ | | Kohtumise planeerimine | "Plaani Jane'iga kohtumine järgmiseks nädalaks, et arutada meie uusimat Acme Corp projekti. Lisa meie viimase projekti planeerimise koosoleku märkmed ja broneeri konverentsiruum." | "Plaani kohtumine jane@acme.corpiga järgmiseks nädalaks." | | Klienditeenindus | "Klient ID 9182 teatas, et temalt võeti ühe ostukorra eest kolm korda tasu. Leia kõik asjakohased logikirjed ja tee kindlaks, kas teisi kliente mõjutas sama probleem." | "Otsi makselogidest 'purchase_complete' ja 'customer_id=9182'." | | Käitumisanalüüs | "Klient Sarah Chen esitas just tühistamistaotluse. Valmista ette säilituspakkumine. Määra kindlaks: (1) miks nad lahkuvad, (2) milline säilituspakkumine oleks kõige veenvam ja (3) millistest riskiteguritest peaksime enne pakkumise tegemist teadlikud olema." | "Leia tühistamistaotlus kliendi ID 45892 järgi." |

Iga viip peaks olema seotud kontrollitava vastuse või tulemusega. Kontrollijad võivad ulatuda lihtsatest stringivõrdlustest keerukamate hindamisteni, kaasates agendi vastuse hindamiseks. Oluline on vältida liiga rangeid kontrollijaid, mis võivad keelduda kehtivatest vastustest väikeste vorminduserinevuste tõttu. Soovi korral saavad arendajad määrata oodatavad tööriistakutsed, kuigi seda tuleks teha hoolikalt, et vältida ülespetsifitseerimist või ülesobitamist konkreetsetele strateegiatele, kuna agendid võivad leida lahenduseni mitu kehtivat teed.

Hindamise programmil läbiviimine

Anthropic soovitab hindamisi käivitada programmiliselt, kasutades otseseid LLM API kutseid lihtsates agentpõhistes tsüklites (nt while tsüklid, mis vahelduvad LLM API ja tööriistakutsete vahel). Igale hindamisagendile antakse üks ülesande viip ja tööriistad. Nende agentide süsteemiviipades on kasulik anda neile juhiseid väljastada struktureeritud vastuseplokid (kontrollimiseks), arutluskäik ja tagasisideplokid enne tööriistakutset ja vastuseplokke. See julgustab mõtteketi (CoT) käitumist, suurendades LLM-i efektiivset intelligentsust. Claude'i "põimitud mõtlemise" funktsioon pakub sarnast funktsionaalsust koheselt, andes ülevaate, miks agendid teevad konkreetseid tööriistavalikuid.

Lisaks tipptaseme täpsusele on elutähtis koguda mõõdikuid nagu kogukäitusaeg, tööriistakutsete arv, tokenite tarbimine ja tööriistavead. Tööriistakutsete jälgimine võib paljastada tavalisi agenditöövooge, pakkudes võimalusi tööriistade konsolideerimiseks või täpsustamiseks.

Tööriistade optimeerimine AI-ga: Claude'i koostööpõhine lähenemine

Hindamistulemuste analüüs on kriitiline etapp. Agendid ise võivad olla selles protsessis hindamatud partnerid, tuvastades probleeme ja pakkudes tagasisidet. Nende tagasiside ei ole aga alati selgesõnaline; see, mida nad välja jätavad, võib olla sama paljastav kui see, mida nad kaasavad. Arendajad peaksid hoolikalt uurima agendi arutluskäiku (CoT), üle vaatama algseid transkriptsioone (sealhulgas tööriistakutsed ja vastused) ning analüüsima tööriistakutse mõõdikuid. Näiteks üleliigsed tööriistakutsed võivad viidata vajadusele kohandada lehekülgede paigutust või tokenite piiranguid, samas kui sagedased vead kehtetute parameetrite tõttu võivad viidata ebaselgetele tööriistakirjeldustele.

Märkimisväärne näide Anthropicust hõlmas Claude'i veebiotsingu tööriista, kus see lisas päringutele tarbetult '2025', moonutades tulemusi. Tööriista kirjelduse parandamine oli võtmetähtsusega Claude'i õigele teele suunamisel.

Anthropicu metoodika kõige uuenduslikum aspekt on võimalus lasta agentidel analüüsida oma tulemusi ja täiustada oma tööriistu. Liites kokku hindamiste transkriptsioonid ja sisestades need Claude Code'i, saavad arendajad kasutada Claude'i ekspertiisi keerukate interaktsioonide analüüsimisel ja tööriistade refaktoreerimisel. Claude on suurepärane tagamaks tööriistade implementatsioonide ja kirjelduste järjepidevuse, isegi arvukate muudatuste korral. See võimas tagasisideahel tähendab, et suur osa Anthropicu enda tööriistade arendamise nõuannetest on loodud ja viimistletud just selle agendi abiga toimunud optimeerimise protsessi kaudu, kajastades agentpõhiste töövoogude kasvavat trendi tarkvaraarenduses.

Kvaliteetsete agenditööriistade arendamise põhiprintsiibid

Ulatusliku eksperimenteerimise ja agendipõhise optimeerimise kaudu on Anthropic tuvastanud mitmed põhiprintsiibid kvaliteetsete tööriistade loomiseks AI agentidele:

  1. Strateegiline tööriistade valik: Valige arukalt, milliseid tööriistu rakendada ja, mis kriitilisem, milliseid mitte. Agendi ülekoormamine ebavajalike tööriistadega võib viia segaduse ja ebatõhususeni.
  2. Selge nimeruumide haldus: Määratlege iga tööriista jaoks selged piirid ja funktsionaalsused tõhusa nimeruumide halduse abil. See aitab agentidel mõista iga võimekuse täpset ulatust ja eesmärki.
  3. Sisuka konteksti tagastamine: Tööriistad peaksid tagastama agendile kokkuvõtliku ja asjakohase konteksti, võimaldades teadlikku otsustusprotsessi ilma paljusõnalise või üleliigse teabeta.
  4. Tokeni tõhususe optimeerimine: Optimeerige tööriistade vastuseid tokeni tõhususe osas. LLM-i interaktsioonides loeb iga token nii kulude kui ka töötlemiskiiruse osas.
  5. Täpne viipade loomine: Koostage hoolikalt tööriistade kirjeldused ja spetsifikatsioonid. Selged ja üheselt mõistetavad juhised on agentidele tööriistade õigeks tõlgendamiseks ja kasutamiseks elutähtsad.

Nende põhimõtete järgimisel ja iteratiivse, agendiabiga arendustsükli omaksvõtmisel saavad arendajad luua robustseid, tõhusaid ja väga efektiivseid tööriistu, mis parandavad oluliselt AI agentide jõudlust ja võimeid, nihutades piire sellele, mida need intelligentsed süsteemid suudavad saavutada.

Korduma kippuvad küsimused

What is the Model Context Protocol (MCP) and how does it relate to AI agents?
The Model Context Protocol (MCP) is a framework designed to empower large language model (LLM) agents by providing them with access to potentially hundreds of tools, enabling them to solve complex real-world tasks. It defines a standardized way for agents to interact with external systems and data sources, transforming how AI agents can leverage deterministic software. Rather than agents relying solely on their internal knowledge, MCP allows them to use specialized tools, much like a human uses various applications or references to complete tasks, thus significantly expanding their capabilities and effectiveness across diverse domains.
Why is designing tools specifically for non-deterministic AI agents different from traditional software development?
Traditional software development typically involves creating contracts between deterministic systems, where a given input always yields the same predictable output. AI agents, however, are non-deterministic, meaning their responses can vary even with identical starting conditions. This fundamental difference requires rethinking tool design. Instead of assuming precise, static interactions, tools for AI agents must be robust enough to handle varied agentic reasoning, potential misunderstandings, or even hallucinations. The goal is to make tools 'ergonomic' for agents, facilitating their diverse problem-solving strategies, which often results in surprisingly intuitive tools for human users too.
What are the critical steps in evaluating the performance of AI agent tools?
Evaluating AI agent tools involves a systematic approach starting with generating a diverse set of real-world evaluation tasks. These tasks should be complex enough to stress-test tools, potentially requiring multiple tool calls. Next, the evaluation is run programmatically, typically using agentic loops that simulate how an agent would interact with the tools. Key metrics collected include accuracy, total runtime, number of tool calls, token consumption, and tool errors. Finally, analyzing results involves having agents provide reasoning and feedback, reviewing raw transcripts, and identifying patterns in tool usage or errors to pinpoint areas for improvement in tool descriptions, schemas, or implementations.
How can AI agents like Claude optimize their own tools?
Anthropic demonstrates that AI agents, particularly models like Claude Code, can play a pivotal role in optimizing the very tools they use. This is achieved by feeding the agent transcripts and results from tool evaluations. Claude can then analyze these interactions, identify inefficiencies, inconsistencies, or areas where tool descriptions are unclear, and suggest refactorings. For instance, it can ensure that tool implementations and descriptions remain self-consistent after changes or recommend adjustments to parameters for better token efficiency. This collaborative approach leverages the agent's analytical capabilities to continuously improve the quality and ergonomics of its toolset, leading to enhanced performance.
What are the key principles for writing high-quality tools for AI agents?
Several core principles guide the creation of effective tools for AI agents. Firstly, judiciously choosing which tools to implement (and which to omit) is crucial for agent clarity and efficiency. Secondly, namespacing tools clearly defines their functional boundaries, reducing ambiguity for the agent. Thirdly, tools should return meaningful and concise context to agents, aiding their decision-making. Fourthly, optimizing tool responses for token efficiency is vital for managing costs and processing speed in LLM interactions. Lastly, meticulous prompt-engineering of tool descriptions and specifications ensures agents accurately understand and utilize each tool's purpose and capabilities, minimizing errors and maximizing effectiveness.

Püsige kursis

Saage värskeimad AI uudised oma postkasti.

Jaga