Code Velocity
Инструменти за разработчици

Инструменти за агенти: Подобряване на производителността на ИИ чрез оптимизация на Claude

·7 мин четене·Anthropic·Оригинален източник
Сподели
Илюстрация на оценка и оптимизация на инструменти за ИИ агенти, използващи Claude Code за подобрена производителност.

Ключовата роля на инструментите за производителността на ИИ агентите

В бързо развиващия се пейзаж на изкуствения интелект, ефективността на интелигентен агент зависи значително от качеството и полезността на инструментите, с които разполага. Тъй като моделите за изкуствен интелект стават все по-способни, позволявайки им да изпълняват сложни, многоетапни задачи, начинът, по който те взаимодействат с външни системи – чрез "инструменти" – става от първостепенно значение. Anthropic, лидер в изследванията и разработката на ИИ, сподели ключови прозрения за това как да се изграждат, оценяват и дори оптимизират тези инструменти, драматично повишавайки производителността на агентите.

В основата на този подход стои Протоколът за контекст на модела (MCP), система, предназначена да даде възможност на агенти, базирани на големи езикови модели (LLM), да имат достъп до широк набор от функционалности. Въпреки това, простото предоставяне на инструменти не е достатъчно; те трябва да бъдат максимално ефективни. Тази статия разглежда доказаните техники на Anthropic за подобряване на агентните ИИ системи, като подчертава как ИИ модели като Claude могат съвместно да прецизират собствените си набори от инструменти. Пътят от първоначалната концепция до оптимизирания инструмент включва прототипиране, строга оценка и цикъл на съвместна обратна връзка със самия агент.

Разбиране на инструментите за ИИ агенти: Нова парадигма за софтуера

Традиционно софтуерното разработване работи на детерминистични принципи: при един и същ вход, функцията винаги ще произведе един и същ предсказуем изход. Разгледайте просто извикване на getWeather("NYC"); то постоянно извлича времето в Ню Йорк по идентичен начин. ИИ агентите обаче, като Claude на Anthropic, работят като недетерминирани системи. Това означава, че техните отговори могат да варират дори при идентични начални условия.

Тази фундаментална разлика налага промяна на парадигмата при проектирането на софтуер за агенти. Инструментите за ИИ агенти не са просто функции или API за други разработчици; те са интерфейси, предназначени за интелигентен, но понякога непредсказуем субект. Когато потребител попита: "Трябва ли да си взема чадър днес?", агентът може да извика инструмент за времето, да използва общи знания или дори да поиска разяснение за местоположението. Понякога агентите могат да халюцинират или да не разберат как правилно да използват даден инструмент.

Следователно, целта е да се увеличи "повърхностната област", върху която агентите могат да бъдат ефективни. Това означава създаване на инструменти, които са не само надеждни, но и "ергономични" за използване от агентите. Интересното е, че опитът на Anthropic показва, че инструменти, проектирани с оглед на недетерминирания характер на агента, често се оказват изненадващо интуитивни и лесни за разбиране и от хората. Тази перспектива за разработване на инструменти е ключова за отключване на пълния потенциал на сложни модели като Claude Opus или Claude Sonnet в реални приложения.

Разработване на ефективни ИИ инструменти: От прототип до оптимизация

Пътят към създаването на ефективни ИИ агентни инструменти е итеративен процес на изграждане, тестване и прецизиране. Anthropic набляга на практически подход, започвайки с бързо прототипиране и след това преминавайки към цялостна оценка.

Изграждане на бърз прототип

Предвиждането на начина, по който агентите ще взаимодействат с инструментите, може да бъде предизвикателство без практически опит. Първата стъпка включва бързо изграждане на прототип. Ако разработчиците използват агент като Claude Code за създаване на инструменти, предоставянето на добре структурирана документация за всички основни софтуерни библиотеки, API или SDK (включително MCP SDK) е от решаващо значение. Обикновените 'llms.txt' файлове, често срещани на официални документационни сайтове, са особено LLM-приятелски.

Тези прототипи могат да бъдат опаковани в локален MCP сървър или Desktop Extension (DXT), за да се улесни локалното тестване в Claude Code или приложението Claude Desktop. За програмно тестване, инструментите могат също да бъдат директно подадени в API извикванията на Anthropic. Тази начална фаза насърчава разработчиците да тестват лично инструментите, да събират потребителска обратна връзка и да изграждат интуиция относно очакваните случаи на употреба и подкани, за които са предназначени инструментите.

Провеждане на цялостна оценка

След като прототипът е функционален, следващата критична стъпка е да се измери колко ефективно агентът използва тези инструменти чрез систематична оценка. Това включва генериране на множество задачи за оценка, основани на реални сценарии.

Генериране на задачи за оценка

Задачите за оценка трябва да бъдат вдъхновени от реални потребителски заявки и да използват реалистични източници на данни. Важно е да се избягват опростени "пясъчни кутии" среди, които не тестват адекватно сложността на инструментите. Силните задачи за оценка често изискват от агентите да правят множество извиквания на инструменти, за да постигнат решение.

Тип задачаСилен примерСлаб пример
Планиране на срещи"Насрочи среща с Джейн следващата седмица, за да обсъдим нашия последен проект с Acme Corp. Прикачи бележките от последната ни среща за планиране на проекта и запази конферентна зала.""Насрочи среща с jane@acme.corp следващата седмица."
Обслужване на клиенти"Клиент ID 9182 съобщи, че е таксуван три пъти за един опит за покупка. Намери всички релевантни записи в дневника и определи дали други клиенти са били засегнати от същия проблем.""Търси в дневниците за плащания за 'purchase_complete' и 'customer_id=9182'."
Анализ на задържане"Клиентката Сара Чен току-що подаде заявка за анулиране. Подготви оферта за задържане. Определи: (1) защо напускат, (2) каква оферта за задържане би била най-привлекателна и (3) всички рискови фактори, за които трябва да сме наясно, преди да направим оферта.""Намери заявката за анулиране от клиент ID 45892."

Всяка подкана трябва да бъде съчетана с проверим отговор или резултат. Проверителите могат да варират от прости сравнения на низове до по-напреднали оценки, включващи агент, който да прецени отговора. От решаващо значение е да се избягват прекалено строги проверители, които биха могли да отхвърлят валидни отговори поради малки разлики във форматирането. По избор разработчиците могат да посочат очакваните извиквания на инструменти, въпреки че това трябва да се прави внимателно, за да се избегне прекалено специфичното определяне или пренапасване към конкретни стратегии, тъй като агентите могат да намерят множество валидни пътища към решение.

Програмно изпълнение на оценката

Anthropic препоръчва програмно изпълнение на оценките с помощта на директни LLM API извиквания в рамките на прости агентни цикли (напр. while цикли, редуващи се между LLM API и извиквания на инструменти). Всеки агент за оценка получава една задача подкана и инструментите. В системните подкани за тези агенти е полезно да ги инструктирате да извеждат структурирани блокове за отговор (за проверка), блокове за разсъждение и обратна връзка преди блоковете за извикване и отговор на инструмента. Това насърчава поведението на верига от мисли (CoT), повишавайки ефективната интелигентност на LLM. Функцията за "прекъсващо мислене" на Claude предлага подобна функционалност извън кутията, предоставяйки прозрения защо агентите правят конкретни избори на инструменти.

Освен общата точност, събирането на метрики като общо време за изпълнение, брой извиквания на инструменти, потребление на токени и грешки на инструменти е жизненоважно. Проследяването на извикванията на инструменти може да разкрие общи работни потоци на агенти, което предполага възможности за консолидация или прецизиране на инструменти.

Оптимизиране на инструменти с ИИ: Съвместният подход на Claude

Анализът на резултатите от оценката е критична фаза. Самите агенти могат да бъдат безценни партньори в този процес, като откриват проблеми и предоставят обратна връзка. Въпреки това, тяхната обратна връзка не винаги е изрична; това, което те пропускат, може да бъде толкова показателно, колкото и това, което включват. Разработчиците трябва да проучат внимателно разсъжденията на агентите (CoT), да прегледат необработените стенограми (включително извикванията и отговорите на инструменти) и да анализират метриките за извикване на инструменти. Например, излишните извиквания на инструменти могат да сигнализират за необходимост от коригиране на пейджинг или ограничения на токените, докато честите грешки поради невалидни параметри могат да показват неясни описания на инструменти.

Забележителен пример от Anthropic включва инструмента за уеб търсене на Claude, където той ненужно добавяше '2025' към заявките, изкривявайки резултатите. Подобряването на описанието на инструмента беше ключово за насочване на Claude в правилната посока.

Най-иновативният аспект на методологията на Anthropic е способността да се позволява на агентите да анализират собствените си резултати и да подобряват своите инструменти. Чрез обединяване на стенограми от оценка и подаването им в Claude Code, разработчиците могат да използват експертния опит на Claude в анализирането на сложни взаимодействия и рефакторирането на инструменти. Claude се отличава с осигуряването на съгласуваност между реализациите и описанията на инструменти, дори при множество промени. Този мощен цикъл на обратна връзка означава, че голяма част от собствените съвети на Anthropic относно разработването на инструменти са генерирани и прецизирани чрез този процес на оптимизация, подпомогната от агенти, което отразява нарастващата тенденция на агентни работни процеси в софтуерното разработване.

Ключови принципи за разработване на висококачествени инструменти за агенти

Чрез обширни експерименти и оптимизация, базирана на агенти, Anthropic е идентифицирал няколко основни принципа за изработване на висококачествени инструменти за ИИ агенти:

  1. Стратегически избор на инструменти: Избирайте разумно кои инструменти да приложите и, което е от решаващо значение, кои да пропуснете. Претоварването на агент с ненужни инструменти може да доведе до объркване и неефективност.
  2. Ясно наименуване: Определете ясни граници и функционалности за всеки инструмент чрез ефективно наименуване. Това помага на агентите да разберат точния обхват и цел на всяка възможност.
  3. Връщане на смислен контекст: Инструментите трябва да връщат кратък и релевантен контекст на агента, което да позволява вземане на информирани решения без многословна или излишна информация.
  4. Оптимизация за ефективност на токени: Оптимизирайте отговорите на инструментите, за да бъдат ефективни по отношение на токените. При LLM взаимодействия всеки токен е важен както за разходите, така и за скоростта на обработка.
  5. Прецизно проектиране на подкани: Внимателно проектирайте подкани за описанията и спецификациите на инструментите. Ясните, недвусмислени инструкции са жизненоважни за агентите да разбират и използват правилно предназначението и възможностите на всеки инструмент.

Като се придържат към тези принципи и възприемат итеративен цикъл на разработка, подпомаган от агенти, разработчиците могат да изградят надеждни, ефективни и изключително мощни инструменти, които значително подобряват производителността и възможностите на ИИ агентите, разширявайки границите на това, което тези интелигентни системи могат да постигнат.

Често задавани въпроси

What is the Model Context Protocol (MCP) and how does it relate to AI agents?
The Model Context Protocol (MCP) is a framework designed to empower large language model (LLM) agents by providing them with access to potentially hundreds of tools, enabling them to solve complex real-world tasks. It defines a standardized way for agents to interact with external systems and data sources, transforming how AI agents can leverage deterministic software. Rather than agents relying solely on their internal knowledge, MCP allows them to use specialized tools, much like a human uses various applications or references to complete tasks, thus significantly expanding their capabilities and effectiveness across diverse domains.
Why is designing tools specifically for non-deterministic AI agents different from traditional software development?
Traditional software development typically involves creating contracts between deterministic systems, where a given input always yields the same predictable output. AI agents, however, are non-deterministic, meaning their responses can vary even with identical starting conditions. This fundamental difference requires rethinking tool design. Instead of assuming precise, static interactions, tools for AI agents must be robust enough to handle varied agentic reasoning, potential misunderstandings, or even hallucinations. The goal is to make tools 'ergonomic' for agents, facilitating their diverse problem-solving strategies, which often results in surprisingly intuitive tools for human users too.
What are the critical steps in evaluating the performance of AI agent tools?
Evaluating AI agent tools involves a systematic approach starting with generating a diverse set of real-world evaluation tasks. These tasks should be complex enough to stress-test tools, potentially requiring multiple tool calls. Next, the evaluation is run programmatically, typically using agentic loops that simulate how an agent would interact with the tools. Key metrics collected include accuracy, total runtime, number of tool calls, token consumption, and tool errors. Finally, analyzing results involves having agents provide reasoning and feedback, reviewing raw transcripts, and identifying patterns in tool usage or errors to pinpoint areas for improvement in tool descriptions, schemas, or implementations.
How can AI agents like Claude optimize their own tools?
Anthropic demonstrates that AI agents, particularly models like Claude Code, can play a pivotal role in optimizing the very tools they use. This is achieved by feeding the agent transcripts and results from tool evaluations. Claude can then analyze these interactions, identify inefficiencies, inconsistencies, or areas where tool descriptions are unclear, and suggest refactorings. For instance, it can ensure that tool implementations and descriptions remain self-consistent after changes or recommend adjustments to parameters for better token efficiency. This collaborative approach leverages the agent's analytical capabilities to continuously improve the quality and ergonomics of its toolset, leading to enhanced performance.
What are the key principles for writing high-quality tools for AI agents?
Several core principles guide the creation of effective tools for AI agents. Firstly, judiciously choosing which tools to implement (and which to omit) is crucial for agent clarity and efficiency. Secondly, namespacing tools clearly defines their functional boundaries, reducing ambiguity for the agent. Thirdly, tools should return meaningful and concise context to agents, aiding their decision-making. Fourthly, optimizing tool responses for token efficiency is vital for managing costs and processing speed in LLM interactions. Lastly, meticulous prompt-engineering of tool descriptions and specifications ensures agents accurately understand and utilize each tool's purpose and capabilities, minimizing errors and maximizing effectiveness.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели