Code Velocity
Utviklerverktøy

Agentverktøy: Forbedring av AI-ytelse med Claude-optimalisering

·7 min lesing·Anthropic·Opprinnelig kilde
Del
Illustrasjon av evaluering og optimalisering av AI-agentverktøy ved hjelp av Claude Code for forbedret ytelse.

Verktøyets avgjørende rolle i AI-agentens ytelse

I det raskt utviklende AI-landskapet avhenger effektiviteten til en intelligent agent i stor grad av kvaliteten og nytten av verktøyene den bruker. Etter hvert som modeller for kunstig intelligens blir stadig mer kapable, noe som gjør dem i stand til å utføre komplekse, flertrinns oppgaver, blir måten de samhandler med eksterne systemer – gjennom "verktøy" – avgjørende. Anthropic, en leder innen AI-forskning og -utvikling, har delt viktig innsikt i hvordan man bygger, evaluerer og til og med optimaliserer disse verktøyene, noe som dramatisk forbedrer agentens ytelse.

I kjernen av denne tilnærmingen ligger Modellkontekstprotokollen (MCP), et system designet for å styrke store språkmodell (LLM)-agenter med tilgang til et stort utvalg av funksjonaliteter. Det er imidlertid ikke nok å bare tilby verktøy; de må være maksimalt effektive. Denne artikkelen går i dybden på Anthropics velprøvde teknikker for å forbedre agentiske AI-systemer, og fremhever hvordan AI-modeller som Claude kan samarbeide om å forbedre sine egne verktøysett. Reisen fra innledende konsept til optimalisert verktøy involverer prototyping, grundig evaluering og en samarbeidende tilbakemeldingssløyfe med agenten selv.

Forståelse av AI-agentverktøy: Et nytt paradigme for programvare

Tradisjonelt opererer programvareutvikling på deterministiske prinsipper: gitt samme input vil en funksjon alltid produsere samme output. Tenk på et enkelt getWeather("NYC")-kall; det henter konsekvent været i New York City på en identisk måte. AI-agenter, som Anthropics Claude, opererer imidlertid som ikke-deterministiske systemer. Dette betyr at svarene deres kan variere selv under identiske startbetingelser.

Denne fundamentale forskjellen nødvendiggjør et paradigmeskifte når man designer programvare for agenter. Verktøy for AI-agenter er ikke bare funksjoner eller API-er for andre utviklere; de er grensesnitt designet for en intelligent, men noen ganger uforutsigbar, enhet. Når en bruker spør: "Bør jeg ta med paraply i dag?", kan en agent kalle et værverktøy, bruke generell kunnskap, eller til og med be om avklaring om sted. Av og til kan agenter hallusinere eller misforstå hvordan et verktøy skal brukes riktig.

Derfor er målet å øke "overflatearealet" der agenter kan være effektive. Dette betyr å skape verktøy som ikke bare er robuste, men også "ergonomiske" for agenter å bruke. Interessant nok viser Anthropics erfaring at verktøy designet med en agents ikke-deterministiske natur i tankene ofte viser seg å være overraskende intuitive og enkle for mennesker å forstå også. Dette perspektivet på verktøyutvikling er nøkkelen til å frigjøre det fulle potensialet til sofistikerte modeller som Claude Opus eller Claude Sonnet i virkelige applikasjoner.

Utvikling av effektive AI-verktøy: Fra prototype til optimalisering

Reisen med å skape effektive AI-agentverktøy er en iterativ prosess med bygging, testing og forbedring. Anthropic legger vekt på en praktisk tilnærming, som starter med rask prototyping og deretter går over til omfattende evaluering.

Bygge en rask prototype

Å forutse hvordan agenter vil samhandle med verktøy kan være utfordrende uten praktisk erfaring. Det første trinnet innebærer å raskt sette opp en prototype. Hvis utviklere utnytter en agent som Claude Code for verktøygenerering, er det avgjørende å levere velstrukturert dokumentasjon for eventuelle underliggende programvarebiblioteker, API-er eller SDK-er (inkludert MCP SDK). Flate 'llms.txt'-filer, som ofte finnes på offisielle dokumentasjonssider, er spesielt LLM-vennlige.

Disse prototypene kan pakkes inn i en lokal MCP-server eller en Desktop Extension (DXT) for å lette lokal testing innenfor Claude Code eller Claude Desktop-appen. For programmatisk testing kan verktøy også sendes direkte inn i Anthropic API-kall. Denne innledende fasen oppmuntrer utviklere til å personlig teste verktøyene, samle tilbakemeldinger fra brukere og bygge intuisjon rundt de forventede bruksområdene og promptene verktøyene er ment å håndtere.

Gjennomføre en omfattende evaluering

Når en prototype er funksjonell, er neste kritiske trinn å måle hvor effektivt agenten bruker disse verktøyene gjennom en systematisk evaluering. Dette innebærer å generere et mangfold av evaluerings¬oppgaver basert på virkelige scenarier.

Generering av evaluerings¬oppgaver

Evaluerings¬oppgaver bør være inspirert av faktiske brukerforespørsler og benytte realistiske datakilder. Det er viktig å unngå forenklede "sandkasse"-miljøer som ikke tilstrekkelig stresstester verktøyenes kompleksitet. Sterke evaluerings¬oppgaver krever ofte at agenter foretar flere verktøy¬kall for å oppnå en løsning.

Task TypeStrong ExampleWeak Example
Møteplanlegging"Planlegg et møte med Jane neste uke for å diskutere vårt siste Acme Corp-prosjekt. Legg ved notatene fra vårt siste prosjektplanleggingsmøte og reserver et konferanserom.""Planlegg et møte med jane@acme.corp neste uke."
Kundeservice"Kunde-ID 9182 rapporterte at de ble belastet tre ganger for et enkelt kjøpsforsøk. Finn alle relevante loggoppføringer og avgjør om andre kunder ble påvirket av samme problem.""Søk i betalingsloggene etter 'purchase_complete' og 'customer_id=9182'."
Beholdningsanalyse"Kunde Sarah Chen har nettopp sendt inn en kanselleringsforespørsel. Forbered et beholdningstilbud. Bestem: (1) hvorfor de slutter, (2) hvilket beholdningstilbud som ville være mest overbevisende, og (3) eventuelle risikofaktorer vi bør være oppmerksomme på før vi gir et tilbud.""Finn kanselleringsforespørselen for kunde-ID 45892."

Hver prompt bør pares med et verifiserbart svar eller resultat. Verifikatorer kan variere fra enkle strengsammenligninger til mer avanserte evalueringer som involverer en agent for å bedømme svaret. Det er avgjørende å unngå overdrevent strenge verifikatorer som kan avvise gyldige svar på grunn av mindre formateringsforskjeller. Valgfritt kan utviklere spesifisere de forventede verktøy¬kallene, selv om dette bør gjøres forsiktig for å unngå overspesifisering eller overtilpasning til spesifikke strategier, da agenter kan finne flere gyldige veier til en løsning.

Kjøre evalueringen programmatisk

Anthropic anbefaler å kjøre evalueringer programmatisk ved hjelp av direkte LLM API-kall innenfor enkle agentiske løkker (f.eks. while-løkker som veksler mellom LLM API- og verktøy¬kall). Hver evaluerings¬agent får en enkelt oppgaveprompt og verktøyene. I systempromptene for disse agentene er det fordelaktig å instruere dem til å produsere strukturerte responsblokker (for verifisering), resonnement og tilbakemeldingsblokker før verktøy¬kall og responsblokker. Dette oppmuntrer til tankekjede (CoT)-atferd, noe som øker LLM-ens effektive intelligens. Claudes "interleaved thinking"-funksjon tilbyr lignende funksjonalitet ut-av-boksen, og gir innsikt i hvorfor agenter tar spesifikke verktøyvalg.

Utover nøyaktighet på toppnivå er det viktig å samle inn målinger som total kjøretid, antall verktøy¬kall, tokenforbruk og verktøyfeil. Sporing av verktøy¬kall kan avsløre vanlige agentarbeidsflyter, noe som antyder muligheter for verktøykonsolidering eller forbedring.

Optimalisering av verktøy med AI: Claudes samarbeidende tilnærming

Analyse av evalueringsresultater er en kritisk fase. Agenter selv kan være uvurderlige partnere i denne prosessen, spotte problemer og gi tilbakemeldinger. Imidlertid er tilbakemeldingene deres ikke alltid eksplisitte; hva de utelater kan være like avslørende som hva de inkluderer. Utviklere bør granske agentens resonnement (CoT), gjennomgå rå transkripsjoner (inkludert verktøy¬kall og svar), og analysere målinger for verktøy¬kall. For eksempel kan redundante verktøy¬kall signalisere et behov for å justere paginering eller token-grenser, mens hyppige feil på grunn av ugyldige parametere kan indikere uklare verktøybeskrivelser.

Et bemerkelsesverdig eksempel fra Anthropic involverte Claudes nettverktøy, hvor den unødvendig la til '2025' til spørringer, noe som forvrengte resultatene. Å forbedre verktøybeskrivelsen var nøkkelen til å styre Claude i riktig retning.

Det mest innovative aspektet ved Anthropics metodikk er evnen til å la agenter analysere sine egne resultater og forbedre verktøyene sine. Ved å sammenføye evaluerings¬transkripsjoner og mate dem inn i Claude Code, kan utviklere utnytte Claudes ekspertise i å analysere komplekse interaksjoner og refaktorere verktøy. Claude utmerker seg i å sikre konsistens mellom verktøyimplementeringer og beskrivelser, selv på tvers av en rekke endringer. Denne kraftige tilbakemeldingssløyfen betyr at mye av Anthropics egne råd om verktøyutvikling har blitt generert og forbedret gjennom denne prosessen med agentassistert optimalisering, noe som gjenspeiler den voksende trenden med agentiske arbeidsflyter i programvareutvikling.

Nøkkelprinsipper for utvikling av høykvalitets agentverktøy

Gjennom omfattende eksperimentering og agentdrevet optimalisering har Anthropic identifisert flere kjerneprinnsipper for å lage høykvalitetsverktøy for AI-agenter:

  1. Strategisk verktøyvalg: Velg klokt hvilke verktøy som skal implementeres, og kritisk, hvilke som ikke skal. Overbelastning av en agent med unødvendige verktøy kan føre til forvirring og ineffektivitet.
  2. Tydelig navngivning (Namespacing): Definer klare grenser og funksjonaliteter for hvert verktøy gjennom effektiv navngivning. Dette hjelper agenter med å forstå det nøyaktige omfanget og formålet med hver funksjon.
  3. Meningsfull kontekstretur: Verktøy bør returnere konsis og relevant kontekst til agenten, noe som muliggjør informert beslutningstaking uten ordrik eller irrelevant informasjon.
  4. Optimalisering av token-effektivitet: Optimaliser verktøyresponsene til å være token-effektive. I LLM-interaksjoner teller hvert token for både kostnad og behandlingshastighet.
  5. Presis prompt-utvikling: Utvikle verktøybeskrivelser og spesifikasjoner omhyggelig. Klare, entydige instruksjoner er avgjørende for at agenter skal tolke og utnytte verktøyene riktig.

Ved å følge disse prinsippene og omfavne en iterativ, agent-assistert utviklingssyklus, kan utviklere bygge robuste, effektive og svært virkningsfulle verktøy som betydelig forbedrer ytelsen og evnene til AI-agenter, og flytter grensene for hva disse intelligente systemene kan oppnå.

Ofte stilte spørsmål

What is the Model Context Protocol (MCP) and how does it relate to AI agents?
The Model Context Protocol (MCP) is a framework designed to empower large language model (LLM) agents by providing them with access to potentially hundreds of tools, enabling them to solve complex real-world tasks. It defines a standardized way for agents to interact with external systems and data sources, transforming how AI agents can leverage deterministic software. Rather than agents relying solely on their internal knowledge, MCP allows them to use specialized tools, much like a human uses various applications or references to complete tasks, thus significantly expanding their capabilities and effectiveness across diverse domains.
Why is designing tools specifically for non-deterministic AI agents different from traditional software development?
Traditional software development typically involves creating contracts between deterministic systems, where a given input always yields the same predictable output. AI agents, however, are non-deterministic, meaning their responses can vary even with identical starting conditions. This fundamental difference requires rethinking tool design. Instead of assuming precise, static interactions, tools for AI agents must be robust enough to handle varied agentic reasoning, potential misunderstandings, or even hallucinations. The goal is to make tools 'ergonomic' for agents, facilitating their diverse problem-solving strategies, which often results in surprisingly intuitive tools for human users too.
What are the critical steps in evaluating the performance of AI agent tools?
Evaluating AI agent tools involves a systematic approach starting with generating a diverse set of real-world evaluation tasks. These tasks should be complex enough to stress-test tools, potentially requiring multiple tool calls. Next, the evaluation is run programmatically, typically using agentic loops that simulate how an agent would interact with the tools. Key metrics collected include accuracy, total runtime, number of tool calls, token consumption, and tool errors. Finally, analyzing results involves having agents provide reasoning and feedback, reviewing raw transcripts, and identifying patterns in tool usage or errors to pinpoint areas for improvement in tool descriptions, schemas, or implementations.
How can AI agents like Claude optimize their own tools?
Anthropic demonstrates that AI agents, particularly models like Claude Code, can play a pivotal role in optimizing the very tools they use. This is achieved by feeding the agent transcripts and results from tool evaluations. Claude can then analyze these interactions, identify inefficiencies, inconsistencies, or areas where tool descriptions are unclear, and suggest refactorings. For instance, it can ensure that tool implementations and descriptions remain self-consistent after changes or recommend adjustments to parameters for better token efficiency. This collaborative approach leverages the agent's analytical capabilities to continuously improve the quality and ergonomics of its toolset, leading to enhanced performance.
What are the key principles for writing high-quality tools for AI agents?
Several core principles guide the creation of effective tools for AI agents. Firstly, judiciously choosing which tools to implement (and which to omit) is crucial for agent clarity and efficiency. Secondly, namespacing tools clearly defines their functional boundaries, reducing ambiguity for the agent. Thirdly, tools should return meaningful and concise context to agents, aiding their decision-making. Fourthly, optimizing tool responses for token efficiency is vital for managing costs and processing speed in LLM interactions. Lastly, meticulous prompt-engineering of tool descriptions and specifications ensures agents accurately understand and utilize each tool's purpose and capabilities, minimizing errors and maximizing effectiveness.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del