Code Velocity
Ontwikkelaarstools

Agent Tools: AI-prestaties verbeteren met Claude-optimalisatie

·7 min leestijd·Anthropic·Originele bron
Delen
Illustratie van de evaluatie en optimalisatie van AI-agenttools met behulp van Claude Code voor verbeterde prestaties.

De Cruciale Rol van Tools in de Prestaties van AI-Agenten

In het snel evoluerende landschap van AI hangt de effectiviteit van een intelligente agent in grote mate af van de kwaliteit en bruikbaarheid van de tools die het hanteert. Naarmate kunstmatige intelligentiemodellen steeds capabeler worden, waardoor ze complexe taken in meerdere stappen kunnen uitvoeren, wordt de manier waarop ze met externe systemen interageren – via "tools" – van cruciaal belang. Anthropic, een leider in AI-onderzoek en -ontwikkeling, heeft cruciale inzichten gedeeld over hoe deze tools te bouwen, te evalueren en zelfs te optimaliseren, waardoor de prestaties van agenten drastisch worden verbeterd.

De kern van deze aanpak ligt bij het Model Context Protocol (MCP), een systeem dat is ontworpen om grote taalmodel (LLM)-agenten te voorzien van toegang tot een breed scala aan functionaliteiten. Echter, alleen tools aanbieden is niet genoeg; ze moeten maximaal effectief zijn. Dit artikel duikt in Anthropic's bewezen technieken voor het verbeteren van agentische AI-systemen, waarbij wordt benadrukt hoe AI-modellen zoals Claude gezamenlijk hun eigen toolsets kunnen verfijnen. De reis van initiële conceptie tot geoptimaliseerde tool omvat prototyping, rigoureuze evaluatie en een collaboratieve feedbackloop met de agent zelf.

AI-Agenttools Begrijpen: Een Nieuw Paradigma voor Software

Traditioneel opereert softwareontwikkeling op deterministische principes: gegeven dezelfde invoer, zal een functie altijd dezelfde uitvoer produceren. Overweeg een eenvoudige getWeather("NYC") oproep; deze haalt consistent het weer van New York City op een identieke manier op. Echter, AI-agenten, zoals Anthropic's Claude, opereren als niet-deterministische systemen. Dit betekent dat hun reacties kunnen variëren, zelfs onder identieke initiële condities.

Dit fundamentele verschil vereist een paradigmaverschuiving bij het ontwerpen van software voor agenten. Tools voor AI-agenten zijn niet alleen functies of API's voor andere ontwikkelaars; het zijn interfaces die zijn ontworpen voor een intelligente, doch soms onvoorspelbare, entiteit. Wanneer een gebruiker vraagt: "Moet ik vandaag een paraplu meenemen?", kan een agent een weertool aanroepen, algemene kennis gebruiken of zelfs om opheldering over de locatie vragen. Af en toe kunnen agenten hallucineren of niet begrijpen hoe een tool correct te gebruiken.

Het doel is daarom om het "oppervlak" waarover agenten effectief kunnen zijn, te vergroten. Dit betekent het creëren van tools die niet alleen robuust zijn, maar ook "ergonomisch" voor agenten om te gebruiken. Interessant genoeg toont de ervaring van Anthropic aan dat tools die zijn ontworpen met de niet-deterministische aard van een agent in gedachten, vaak verrassend intuïtief en gemakkelijk te begrijpen blijken te zijn voor mensen. Dit perspectief op toolontwikkeling is essentieel om het volledige potentieel van geavanceerde modellen zoals Claude Opus of Claude Sonnet in real-world applicaties te ontsluiten.

Effectieve AI-Tools Ontwikkelen: Van Prototype tot Optimalisatie

De reis van het creëren van effectieve AI-agenttools is een iteratief proces van bouwen, testen en verfijnen. Anthropic benadrukt een praktische aanpak, beginnend met snelle prototyping en vervolgens overgaand naar uitgebreide evaluatie.

Een Snel Prototype Bouwen

Het anticiperen op hoe agenten met tools zullen interageren kan een uitdaging zijn zonder praktische ervaring. De eerste stap omvat het snel opzetten van een prototype. Als ontwikkelaars een agent zoals Claude Code gebruiken voor het maken van tools, is het cruciaal om goed gestructureerde documentatie te verstrekken voor onderliggende softwarebibliotheken, API's of SDK's (inclusief de MCP SDK). Platte 'llms.txt' bestanden, vaak te vinden op officiële documentatiesites, zijn bijzonder LLM-vriendelijk.

Deze prototypes kunnen worden verpakt in een lokale MCP-server of een Desktop Extension (DXT) om lokaal testen binnen Claude Code of de Claude Desktop-app te vergemakkelijken. Voor programmatisch testen kunnen tools ook rechtstreeks worden doorgegeven aan Anthropic API-aanroepen. Deze initiële fase moedigt ontwikkelaars aan om de tools persoonlijk te testen, feedback van gebruikers te verzamelen en intuïtie op te bouwen rond de verwachte gebruiksscenario's en prompts die de tools moeten afhandelen.

Een Uitgebreide Evaluatie Uitvoeren

Zodra een prototype functioneel is, is de volgende cruciale stap het meten hoe effectief de agent deze tools gebruikt door middel van een systematische evaluatie. Dit omvat het genereren van een veelheid aan evaluatietaken die gebaseerd zijn op real-world scenario's.

Evaluatietaken Genereren

Evaluatietaken moeten geïnspireerd zijn op feitelijke gebruikersvragen en realistische gegevensbronnen gebruiken. Het is belangrijk om simplistische "sandbox" -omgevingen te vermijden die de complexiteit van de tools niet adequaat onder druk zetten. Sterke evaluatietaken vereisen vaak dat agenten meerdere tool-aanroepen doen om een oplossing te bereiken.

TaaktypeSterk VoorbeeldZwak Voorbeeld
Vergadering Plannen"Plan volgende week een vergadering met Jane om ons nieuwste Acme Corp-project te bespreken. Voeg de notities van onze laatste projectplanningvergadering toe en reserveer een vergaderruimte.""Plan volgende week een vergadering met jane@acme.corp."
Klantenservice"Klant ID 9182 meldde dat ze drie keer waren gefactureerd voor een enkele aankoop. Zoek alle relevante logboekvermeldingen en bepaal of andere klanten door hetzelfde probleem werden getroffen.""Zoek in de betalingslogboeken naar 'purchase_complete' en 'customer_id=9182'."
Retentieanalyse"Klant Sarah Chen heeft zojuist een annuleringsverzoek ingediend. Bereid een retentieaanbod voor. Bepaal: (1) waarom ze vertrekken, (2) welk retentieaanbod het meest aantrekkelijk zou zijn, en (3) eventuele risicofactoren waarvan we ons bewust moeten zijn voordat we een aanbod doen.""Zoek het annuleringsverzoek op van Klant ID 45892."

Elke prompt moet gepaard gaan met een verifieerbare respons of uitkomst. Verificateurs kunnen variëren van eenvoudige stringvergelijkingen tot meer geavanceerde evaluaties waarbij een agent wordt ingeschakeld om de respons te beoordelen. Het is cruciaal om overdreven strikte verificateurs te vermijden die geldige responsen kunnen afwijzen vanwege kleine opmaakverschillen. Optioneel kunnen ontwikkelaars de verwachte tool-aanroepen specificeren, hoewel dit zorgvuldig moet gebeuren om overspecificatie of overfitting aan specifieke strategieën te voorkomen, aangezien agenten meerdere geldige paden naar een oplossing kunnen vinden.

De Evaluatie Programmatisch Uitvoeren

Anthropic beveelt aan om evaluaties programmatisch uit te voeren met behulp van directe LLM API-aanroepen binnen eenvoudige agentische loops (bijv. while-loops die afwisselen tussen LLM API- en tool-aanroepen). Elke evaluatie-agent krijgt een enkele taakprompt en de tools. In de systeemprompts voor deze agenten is het nuttig om hen te instrueren om gestructureerde responsblokken (voor verificatie), redeneringen en feedbackblokken vóór tool-aanroep- en responsblokken uit te voeren. Dit moedigt chain-of-thought (CoT) gedragingen aan, wat de effectieve intelligentie van de LLM stimuleert. Claude's "interleaved thinking"-functie biedt vergelijkbare functionaliteit out-of-the-box, en geeft inzicht in waarom agenten specifieke toolkeuzes maken.

Naast de algemene nauwkeurigheid is het essentieel om metrics zoals de totale looptijd, het aantal tool-aanroepen, het tokenverbruik en tool-fouten te verzamelen. Het volgen van tool-aanroepen kan veelvoorkomende agentworkflows onthullen, wat mogelijkheden suggereert voor toolconsolidatie of -verfijning.

Tools Optimaliseren met AI: Claude's Collaboratieve Aanpak

Het analyseren van evaluatieresultaten is een cruciale fase. Agenten zelf kunnen van onschatbare waarde zijn in dit proces, door problemen te signaleren en feedback te geven. Hun feedback is echter niet altijd expliciet; wat ze weglaten kan net zo veelzeggend zijn als wat ze opnemen. Ontwikkelaars moeten de redenering van de agent (CoT) nauwkeurig onderzoeken, ruwe transcripten (inclusief tool-aanroepen en -responsen) doornemen en tool-aanroepmetrics analyseren. Zo kunnen redundante tool-aanroepen een behoefte signaleren aan het aanpassen van paginering of tokenlimieten, terwijl frequente fouten als gevolg van ongeldige parameters kunnen duiden op onduidelijke toolbeschrijvingen.

Een opmerkelijk voorbeeld van Anthropic betrof Claude's webzoektool, waarbij deze onnodig '2025' toevoegde aan zoekopdrachten, wat de resultaten bevooroordeelde. Het verbeteren van de toolbeschrijving was cruciaal om Claude in de juiste richting te sturen.

Het meest innovatieve aspect van Anthropic's methodologie is de mogelijkheid om agenten hun eigen resultaten te laten analyseren en hun tools te laten verbeteren. Door evaluatietranscripten samen te voegen en deze in Claude Code te voeren, kunnen ontwikkelaars de expertise van Claude benutten bij het analyseren van complexe interacties en het herstructureren van tools. Claude blinkt uit in het waarborgen van consistentie tussen tool-implementaties en -beschrijvingen, zelfs bij talrijke wijzigingen. Deze krachtige feedbackloop betekent dat veel van Anthropic's eigen advies over toolontwikkeling is gegenereerd en verfijnd via dit proces van door agenten ondersteunde optimalisatie, wat de groeiende trend van agentische workflows in softwareontwikkeling weerspiegelt.

Belangrijkste Principes voor de Ontwikkeling van Hoogwaardige Agenttools

Door uitgebreide experimenten en door agenten gestuurde optimalisatie heeft Anthropic verschillende kernprincipes geïdentificeerd voor het creëren van hoogwaardige tools voor AI-agenten:

  1. Strategische Toolselectie: Kies wijselijk welke tools moeten worden geïmplementeerd, en cruciaal, welke niet. Het overladen van een agent met onnodige tools kan leiden tot verwarring en inefficiëntie.
  2. Duidelijke Namespacing: Definieer duidelijke grenzen en functionaliteiten voor elke tool door effectieve namespacing. Dit helpt agenten de precieze reikwijdte en het doel van elke capaciteit te begrijpen.
  3. Betekenisvolle Context Teruggeven: Tools moeten beknopte en relevante context aan de agent teruggeven, wat weloverwogen besluitvorming mogelijk maakt zonder breedsprakige of overbodige informatie.
  4. Token-efficiëntie Optimalisatie: Optimaliseer tool-antwoorden om token-efficiënt te zijn. In LLM-interacties telt elk token voor zowel kosten als verwerkingssnelheid.
  5. Precieze Prompt Engineering: Zorgvuldig prompt-engineerde toolbeschrijvingen en specificaties zorgen ervoor dat agenten het doel en de mogelijkheden van elke tool nauwkeurig begrijpen en benutten, waardoor fouten worden geminimaliseerd en de effectiviteit wordt gemaximaliseerd.

Door deze principes te volgen en een iteratieve, door agenten ondersteunde ontwikkelingscyclus te omarmen, kunnen ontwikkelaars robuuste, efficiënte en zeer effectieve tools bouwen die de prestaties en mogelijkheden van AI-agenten aanzienlijk verbeteren, waardoor de grenzen van wat deze intelligente systemen kunnen bereiken worden verlegd.

Veelgestelde vragen

What is the Model Context Protocol (MCP) and how does it relate to AI agents?
The Model Context Protocol (MCP) is a framework designed to empower large language model (LLM) agents by providing them with access to potentially hundreds of tools, enabling them to solve complex real-world tasks. It defines a standardized way for agents to interact with external systems and data sources, transforming how AI agents can leverage deterministic software. Rather than agents relying solely on their internal knowledge, MCP allows them to use specialized tools, much like a human uses various applications or references to complete tasks, thus significantly expanding their capabilities and effectiveness across diverse domains.
Why is designing tools specifically for non-deterministic AI agents different from traditional software development?
Traditional software development typically involves creating contracts between deterministic systems, where a given input always yields the same predictable output. AI agents, however, are non-deterministic, meaning their responses can vary even with identical starting conditions. This fundamental difference requires rethinking tool design. Instead of assuming precise, static interactions, tools for AI agents must be robust enough to handle varied agentic reasoning, potential misunderstandings, or even hallucinations. The goal is to make tools 'ergonomic' for agents, facilitating their diverse problem-solving strategies, which often results in surprisingly intuitive tools for human users too.
What are the critical steps in evaluating the performance of AI agent tools?
Evaluating AI agent tools involves a systematic approach starting with generating a diverse set of real-world evaluation tasks. These tasks should be complex enough to stress-test tools, potentially requiring multiple tool calls. Next, the evaluation is run programmatically, typically using agentic loops that simulate how an agent would interact with the tools. Key metrics collected include accuracy, total runtime, number of tool calls, token consumption, and tool errors. Finally, analyzing results involves having agents provide reasoning and feedback, reviewing raw transcripts, and identifying patterns in tool usage or errors to pinpoint areas for improvement in tool descriptions, schemas, or implementations.
How can AI agents like Claude optimize their own tools?
Anthropic demonstrates that AI agents, particularly models like Claude Code, can play a pivotal role in optimizing the very tools they use. This is achieved by feeding the agent transcripts and results from tool evaluations. Claude can then analyze these interactions, identify inefficiencies, inconsistencies, or areas where tool descriptions are unclear, and suggest refactorings. For instance, it can ensure that tool implementations and descriptions remain self-consistent after changes or recommend adjustments to parameters for better token efficiency. This collaborative approach leverages the agent's analytical capabilities to continuously improve the quality and ergonomics of its toolset, leading to enhanced performance.
What are the key principles for writing high-quality tools for AI agents?
Several core principles guide the creation of effective tools for AI agents. Firstly, judiciously choosing which tools to implement (and which to omit) is crucial for agent clarity and efficiency. Secondly, namespacing tools clearly defines their functional boundaries, reducing ambiguity for the agent. Thirdly, tools should return meaningful and concise context to agents, aiding their decision-making. Fourthly, optimizing tool responses for token efficiency is vital for managing costs and processing speed in LLM interactions. Lastly, meticulous prompt-engineering of tool descriptions and specifications ensures agents accurately understand and utilize each tool's purpose and capabilities, minimizing errors and maximizing effectiveness.

Blijf op de hoogte

Ontvang het laatste AI-nieuws in je inbox.

Delen