Code Velocity
Izstrādātāju rīki

SageMaker AI: Aģentiskas rīku izsaukšanas paātrināšana ar bezservera modeļu pielāgošanu

·5 min lasīšana·AWS·Sākotnējais avots
Dalīties
Amazon SageMaker AI Studio interfeiss, kas parāda bezservera modeļu pielāgošanas un aģentiskas rīku izsaukšanas iespējas.
{
  "prompt": [
    {"role": "system", "content": "Jūs esat noderīgs asistents. Izmantojot rīkus, atbildiet ar: [...]"},
    {"role": "user", "content": "Saņemiet laikapstākļus"}
  ],
  "reward_model": {
    "ground_truth": "Lai sniegtu jums informāciju par laikapstākļiem, lūdzu, norādiet atrašanās vietu?"
  }
}

Qwen 2.5 7B Instruct precizēšana ar SageMaker AI

Modeļa, piemēram, Qwen 2.5 7B Instruct, precizēšanas process Amazon SageMaker AI Studio ir racionalizēts un intuitīvs. Pēc tam, kad ir nodrošināti nepieciešamie priekšnosacījumi (AWS konts, IAM loma, SageMaker AI domēns, S3 segments), lietotāji var navigēt uz sadaļu Modeļi SageMaker AI Studio.

No turienes, izvēloties Qwen 2.5 7B Instruct un atlasot Pielāgot ar UI, tiek atvērta īpaša konfigurācijas lapa. Šī saskarne ļauj:

  • Tehnikas izvēle: Skaidri izvēlēties Pastiprināto mācīšanos ar pārbaudāmām atlīdzībām (RLVR) no nolaižamās izvēlnes.
  • Datu ievade: Norādīt uz sagatavotiem apmācības datiem, kas glabājas Amazon S3 segmentā.
  • Atlīdzības funkcija: Konfigurēt daudzlīmeņu vērtēšanas mehānismu, kas nosaka, kā kandidātu atbildes tiek novērtētas pret ground_truth.
  • Hiperparametru konfigurācija: Pielāgot parametrus, piemēram, partijas lielumu, lai gan SageMaker AI bieži automātiski apstrādā optimālos iestatījumus.

SageMaker AI atbalsta dažādas modeļu saimes, tostarp Amazon Nova, GPT-OSS, Llama, Qwen un DeepSeek, kā arī dažādas tehnikas, piemēram, Uzraudzīto precizēšanu (SFT), Tiešo preferenču optimizāciju (DPO), RLVR un Pastiprināto mācīšanos no AI atgriezeniskās saites (RLAIF). Integrētā MLflow izsekošana nodrošina pārskatāmību apmācības un validācijas metrikā, vienkāršojot veiktspējas uzraudzību un iterāciju. Šī lietošanas ērtība dramatiski paātrina izstrādes dzīves ciklu izstrādātājiem, kas veido sarežģītas github-agentic-workflows.

Novērtēšana un ieviešanas panākumi

Mūsu precizētā Qwen 2.5 7B Instruct modeļa efektivitāte tika stingri novērtēta, izmantojot neizmantotus datus, ieskaitot scenārijus ar pilnīgi neparedzētiem rīkiem — izšķirošs vispārināšanas tests. Rezultāti bija pārliecinoši: precizētais modelis sasniedza ievērojamu 57% uzlabojumu rīku izsaukšanas atlīdzībā salīdzinājumā ar pamata modeli. Šis ievērojamais veiktspējas lēciens scenārijos, ko tas nebija sastapis apmācības laikā, uzsver RLVR spēku mācot modeļiem stabilas lēmumu pieņemšanas spējas rīku mijiedarbībā.

Šī uzlabotā uzticamība tieši pārvēršas lielākā uzticībā un pārliecībā par AI aģentu ieviešanu ražošanas vidē. Samazinot rīku halucināciju gadījumus, nepareizus parametrus un neatbilstošas darbības, uzņēmumi var izmantot AI aģentus kritiskākiem un jutīgākiem uzdevumiem. Ar SageMaker AI, kas apstrādā modeļa ieviešanas un infrastruktūras pārvaldības sarežģītību, izstrādātāji var nemanāmi pāriet no precizēšanas uz ražošanu, realizējot savu aģentisko AI risinājumu pilnu potenciālu. Šī spēja saskan ar plašāku redzējumu par aģentiskās AI operacionalizēšanu reālās pasaules ietekmei.

Rezumējot, Amazon SageMaker AI bezservera modeļu pielāgošanas un RLVR stabilo mācīšanās iespēju kombinācija nodrošina jaudīgu ceļu uz ļoti uzticamu aģentisku rīku izsaukšanas sistēmu izveidi. Šī inovatīvā pieeja paātrina izstrādi, samazina operatīvo slogu un galu galā nodrošina AI aģentus, kas darbojas ar nepieredzētu precizitāti un uzticamību.

Bieži uzdotie jautājumi

What is agentic tool calling and why is it crucial for AI agents?
Agentic tool calling is the mechanism that empowers AI agents to perform real-world actions like querying databases, initiating workflows, fetching real-time information, and executing tasks on a user's behalf. It's crucial because it bridges the gap between language understanding and practical application, allowing AI agents to move beyond just generating text to actually interacting with external systems and data sources, thereby making them genuinely useful in production environments.
What are the common challenges AI agents face when performing tool calls?
AI agents frequently encounter challenges such as hallucinating tools that don't exist, passing incorrect parameters to valid tools, or attempting actions when they should instead seek clarification from the user. These failures lead to unreliable agent behavior, eroding user trust and posing significant hurdles to the successful deployment of AI agents in critical production systems, ultimately limiting their real-world utility.
How does Amazon SageMaker AI address the challenges of agentic tool calling?
Amazon SageMaker AI addresses these challenges through its serverless model customization capabilities, particularly using Reinforcement Learning with Verifiable Rewards (RLVR). This approach allows developers to fine-tune large language models (LLMs) to improve their tool-calling accuracy without managing complex infrastructure. SageMaker AI handles the operational overhead of GPU provisioning, memory management, and reward infrastructure, letting users focus on data, reward functions, and model behavior.
What is Reinforcement Learning with Verifiable Rewards (RLVR) and how does it work?
RLVR is a powerful fine-tuning technique where the model generates multiple candidate responses for a given prompt. A predefined reward function then evaluates these candidates, providing a signal about their quality and correctness. The model subsequently updates its internal policy to favor responses that received higher reward scores, using methods like Group Relative Policy Optimization (GRPO), thereby iteratively learning to produce more accurate and desired outputs for specific tasks like tool calling.
Why is RLVR considered more effective than Supervised Fine-Tuning (SFT) for tool calling tasks?
While SFT requires meticulously labeled examples for every desired behavior (e.g., calling a tool, clarifying, refusing), RLVR operates differently. SFT can struggle to generalize decision-making between these behaviors. RLVR, by contrast, allows the model to learn the optimal decision boundary by generating multiple candidates and receiving immediate feedback via a reward function, enabling it to better understand *when* to execute a tool call versus *when* to ask for more information or refuse a request.
How is training data prepared for RLVR in Amazon SageMaker AI for agentic tool calling?
Training data for RLVR in SageMaker AI is prepared as JSONL files, where each entry contains a prompt (system and user messages) and a `ground_truth` within a `reward_model` field. This `ground_truth` is what the reward function scores against. To ensure robust agent behavior, datasets are typically designed to cover three distinct scenarios: executing a tool call when all parameters are present, clarifying when information is missing, and refusing requests that are out of scope or harmful. Synthetic data generation tools like Kiro can be used for this purpose.
What agent behaviors are critical for building robust and reliable tool-calling AI agents?
Building robust tool-calling AI agents requires them to master three critical behaviors. First, they must `Execute` a tool call accurately when all necessary information is provided by the user. Second, they need to `Clarify` by asking follow-up questions when essential parameters are missing from a user's request. Third, they must `Refuse` gracefully when a request is out of scope, harmful, or cannot be fulfilled. Training models across these behaviors ensures comprehensive and trustworthy agent performance.
What prerequisites are needed to use serverless model customization in SageMaker AI?
To leverage serverless model customization in Amazon SageMaker AI, users must have an active AWS account, an AWS IAM role configured with the necessary permissions for SageMaker, a SageMaker AI domain providing Studio access for development, and an Amazon Simple Storage Service (Amazon S3) bucket to store training data and model outputs securely. These components ensure a secure and functional environment for fine-tuning models.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties