Code Velocity
Instrumente pentru Dezvoltatori

SageMaker AI: Accelerarea Apelării Instrumentelor Agentice cu Personalizare Serverless

·5 min de citit·AWS·Sursa originală
Distribuie
Interfața Amazon SageMaker AI Studio, care prezintă opțiuni pentru personalizarea serverless a modelelor și apelarea instrumentelor agentice.

SageMaker AI: Accelerarea Apelării Instrumentelor Agentice cu Personalizare Serverless

AI-ul agentic a revoluționat modul în care privim sarcinile automatizate, permițând sistemelor să ia decizii și să interacționeze cu lumea prin intermediul instrumentelor specializate. Cu toate acestea, utilitatea reală a agenților AI în producție depinde de capacitatea lor de a efectua în mod fiabil apelarea instrumentelor agentice. Acesta este modul în care agenții interoghează baze de date, declanșează fluxuri de lucru complexe, extrag date în timp real și acționează decisiv în numele unui utilizator. Din păcate, un obstacol comun în calea adoptării pe scară largă a fost tendința modelelor lingvistice mari (LLM-urilor) de bază de a halucina instrumente, de a transmite parametri incorecți sau de a încerca acțiuni atunci când este necesară clarificarea. Astfel de eșecuri erodează încrederea și împiedică semnificativ implementarea în producție.

Amazon SageMaker AI intervine pentru a rezolva aceste provocări critice. Oferind personalizare serverless a modelelor, dezvoltatorii pot regla fin LLM-urile pentru o apelare robustă a instrumentelor agentice, fără sarcina operațională tipică. Centrală acestei inovații este Învățarea prin Consolidare cu Recompense Verificabile (RLVR), o tehnică ce permite modelelor să genereze și să valideze propriile răspunsuri, învățând să favorizeze interacțiunile de succes cu instrumentele. Această postare detaliază modul în care SageMaker AI, utilizând RLVR, îmbunătățește dramatic fiabilitatea agenților, demonstrând o îmbunătățire de 57% a recompenselor pentru apelurile de instrumente în scenarii nevăzute, cu un model Qwen 2.5 7B Instruct reglat fin.

Promisiunea și Pericolele Apelării Instrumentelor Agentice

Conceptul agenților AI care interacționează cu sisteme externe prin intermediul instrumentelor este o piatră de temelie a aplicațiilor AI avansate. Imaginați-vă un agent care poate rezerva zboruri, rezuma documente dintr-o bază de date sau chiar executa cod pe baza unui prompt în limbaj natural. Această funcționalitate este exact ceea ce permite apelarea instrumentelor agentice. Cu toate acestea, calea către utilizarea fiabilă a instrumentelor este presărată cu provocări.

LLM-urile de bază, deși puternice în generarea de limbaj, adesea nu au înțelegerea nuanțată necesară pentru invocarea precisă a instrumentelor. Ele pot deduce un instrument care nu există, pot interpreta greșit intenția utilizatorului ducând la valori incorecte ale parametrilor sau pot eșua să recunoască atunci când lipsesc informații critice. Aceste erori duc la experiențe frustrante pentru utilizatori și fac riscantă implementarea la nivel de întreprindere. Pentru organizațiile care doresc să operaționalizeze agenții AI în mod eficient, asigurarea unei execuții predictibile și de încredere a instrumentelor este primordială. Mizele sunt mari, deoarece agenții fiabili pot debloca niveluri fără precedent de automatizare și eficiență, în timp ce cei nesiguri pot duce la erori costisitoare și nemulțumirea utilizatorilor. Acesta este motivul pentru care optimizarea robustă a modelelor pentru fluxurile de lucru agentice este esențială, o sarcină simplificată cu platforme precum SageMaker AI.

Personalizarea Serverless a Modelelor: Avantajul SageMaker AI

Abordarea tradițională pentru îmbunătățirea performanței LLM-urilor implică adesea o gestionare semnificativă a infrastructurii – de la achiziționarea GPU-urilor și orchestrarea memoriei până la infrastructura complexă de recompensă și checkpointing pentru învățarea prin consolidare. Aceste sarcini introduc o sarcină operațională considerabilă, deviind resurse valoroase de dezvoltare de la concentrarea pe problema de bază: rafinarea comportamentului modelului.

Funcționalitatea de personalizare serverless a modelelor din Amazon SageMaker AI elimină această povară. Dezvoltatorii pot selecta un model fundamental (de exemplu, Qwen, Llama, GPT-OSS), pot configura o tehnică de reglare fină precum RLVR, pot indica datele lor și pot defini o funcție de recompensă. SageMaker AI gestionează apoi întregul proces de backend, de la scalarea resurselor de calcul până la gestionarea fazelor de antrenament și reglajul hiperparametrilor. Această abstractizare permite echipelor să se concentreze pe calitatea setului de date și pe designul funcției de recompensă, care sunt adevărații factori de îmbunătățire a modelului. Pentru întreprinderi, această abordare serverless se traduce prin cicluri de iterație mai rapide, costuri reduse și o barieră de intrare mai mică pentru personalizarea avansată a LLM-urilor. Este un factor de schimbare a jocului pentru cei care doresc să scaleze AI pentru toată lumea prin simplificarea proceselor complexe de reglare fină a LLM-urilor.

De ce RLVR excelează în Apelarea Instrumentelor Agentice

Când vine vorba de a învăța un agent AI să utilizeze în mod fiabil instrumente, nu toate tehnicile de reglare fină sunt egale. Supervised Fine-Tuning (SFT) necesită exemple etichetate meticulos pentru fiecare comportament posibil pe care un model ar trebui să-l demonstreze – apelarea unui instrument, solicitarea de clarificări sau refuzul unei cereri. Provocarea cu SFT este dificultatea sa de a generaliza procesul de luare a deciziilor între aceste comportamente distincte, performând adesea bine pe modelele văzute în timpul antrenamentului, dar eșuând în scenarii noi.

Învățarea prin Consolidare cu Recompense Verificabile (RLVR) oferă o soluție mai dinamică și mai eficientă. Spre deosebire de SFT, RLVR operează pe o buclă de feedback:

  1. Generarea Candidaților: Pentru fiecare prompt, modelul generează multiple (de exemplu, opt) răspunsuri potențiale.
  2. Evaluarea Funcției de Recompensă: O funcție de recompensă predefinită evaluează obiectiv fiecare candidat, indicând calitatea, corectitudinea și aderența sa la comportamentul dorit (de exemplu, a apelat instrumentul corect cu parametrii corespunzători?).
  3. Actualizarea Politicii: Folosind Group Relative Policy Optimization (GRPO), politica modelului este actualizată pentru a întări răspunsurile care au obținut scoruri peste media grupului generat. Acest proces ghidează iterativ modelul către un comportament mai optim.

Această învățare iterativă permite modelului să înțeleagă nu doar cum să efectueze o acțiune specifică, ci și când să o efectueze. Învață nuanțele de a distinge între situațiile în care un apel de instrument este adecvat, este necesară o clarificare sau refuzul este cel mai bun curs de acțiune. Deoarece apelarea instrumentelor are un obiectiv natural verificabil – dacă modelul a apelat funcția corectă cu parametrii potriviți – se potrivește excepțional de bine paradigmei RLVR, făcând-o ideală pentru agenții AI care necesită fiabilitate ridicată. Această metodă abordează eficient provocarea proiectării agenților pentru a rezista injecției de prompturi prin consolidarea modelelor de acțiune precise.

Pregătirea Datelor de Antrenament de Înaltă Calitate pentru RLVR

Succesul oricărui efort de reglare fină, în special cu RLVR, depinde de calitatea și exhaustivitatea datelor de antrenament. Pentru apelarea instrumentelor agentice, setul de date trebuie să învețe modelul mai mult decât simple invocări API corecte; trebuie să cuprindă întregul spectru de comportamente necesare ale agentului.

Abordarea noastră a implicat generarea a 1.500 de exemple de antrenament sintetice folosind Kiro, IDE-ul Amazon alimentat de AI. Aceste exemple au acoperit cinci scheme distincte de instrumente: get_weather_forecast, search_flights, translate_text, currency_convert și get_statistics. În mod crucial, datele au fost distribuite pe trei comportamente principale ale agentului pentru a asigura o învățare echilibrată:

ComportamentDescriereProcentajExemplu de Ground Truth
ExecutăUtilizatorul furnizează toți parametrii necesari, modelul ar trebui să apeleze un instrument.60%[{"name": "get_weather_forecast", "arguments": {"city": "San Francisco"}}]
ClarificăSolicitarea utilizatorului nu conține parametrii necesari, modelul ar trebui să ceară clarificări.25%Pentru a vă oferi informațiile despre vreme, ați putea vă rog să specificați locația?
RefuzăSolicitarea este dăunătoare sau în afara domeniului de aplicare, modelul ar trebui să refuze politicos.15%Îmi pare rău, nu pot îndeplini această solicitare.

Fiecare exemplu de antrenament a urmat un format JSONL, incluzând un prompt (instrucțiune de sistem și solicitare de utilizator) și o ground_truth în câmpul reward_model față de care funcția de recompensă scorază. Variațiile de formulare între stilul formal, informal și concis au îmbunătățit și mai mult robustețea setului de date. În timp ce datele sintetice oferă un punct de plecare practic, organizațiile cu fluxuri de lucru agentice existente pot valorifica prompturile reale ale utilizatorilor și apelurile de instrumente din jurnalele de producție pentru a obține o calitate și mai mare a antrenamentului. Această pregătire a datelor este un pas critic în ingineria prompturilor pentru comportamente complexe ale agenților.

{
  "prompt": [
    {"role": "system", "content": "You are a helpful assistant. When using tools, respond with: [...]"},
    {"role": "user", "content": "Get weather for San Francisco"}
  ],
  "reward_model": {
    "ground_truth": "[{"name": "get_weather_forecast", "arguments": {"city": "San Francisco"}}]"
  }
}
{
  "prompt": [
    {"role": "system", "content": "You are a helpful assistant. When using tools, respond with: [...]"},
    {"role": "user", "content": "Get the weather"}
  ],
  "reward_model": {
    "ground_truth": "To provide you with the weather information, could you please specify the location?"
  }
}

Reglarea Fină a Qwen 2.5 7B Instruct cu SageMaker AI

Procesul de reglare fină a unui model precum Qwen 2.5 7B Instruct în Amazon SageMaker AI Studio este simplificat și intuitiv. După ce se asigură că sunt îndeplinite condițiile prealabile necesare (cont AWS, rol IAM, domeniu SageMaker AI, bucket S3), utilizatorii pot naviga la secțiunea Modele din SageMaker AI Studio.

De acolo, selectarea Qwen 2.5 7B Instruct și alegerea Personalizează cu interfața de utilizator deschide o pagină dedicată de configurare. Această interfață permite:

  • Selecția Tehnicii: Alegerea explicită a Învățării prin Consolidare cu Recompense Verificabile (RLVR) din meniul derulant.
  • Introducerea Datelor: Indicarea datelor de antrenament pregătite stocate într-un bucket Amazon S3.
  • Funcția de Recompensă: Configurarea mecanismului de scorare pe niveluri care definește modul în care răspunsurile candidate sunt evaluate în raport cu ground_truth.
  • Configurarea Hiperparametrilor: Ajustarea parametrilor precum dimensiunea lotului, deși SageMaker AI gestionează adesea setările optime automat.

SageMaker AI suportă o gamă diversă de familii de modele, inclusiv Amazon Nova, GPT-OSS, Llama, Qwen și DeepSeek, alături de diverse tehnici precum Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO), RLVR și Reinforcement Learning from AI Feedback (RLAIF). Urmărirea integrată MLflow oferă vizibilitate asupra metricilor de antrenament și validare, simplificând monitorizarea performanței și iterația. Această ușurință în utilizare accelerează dramatic ciclul de dezvoltare pentru dezvoltatorii care construiesc fluxuri de lucru agentice github sofisticate.

Evaluare și Succes în Implementare

Eficacitatea modelului nostru Qwen 2.5 7B Instruct reglat fin a fost evaluată riguros pe date de test, inclusiv scenarii cu instrumente nevăzute în întregime — un test crucial pentru generalizare. Rezultatele au fost convingătoare: modelul reglat fin a obținut o îmbunătățire remarcabilă de 57% a recompensei pentru apelurile de instrumente în comparație cu modelul de bază. Acest salt semnificativ în performanță pe scenarii pe care nu le-a întâlnit în timpul antrenamentului subliniază puterea RLVR în predarea modelelor a unor capacități robuste de luare a deciziilor pentru interacțiunea cu instrumentele.

Această fiabilitate sporită se traduce direct într-o încredere și siguranță mai mari în implementarea agenților AI în mediile de producție. Prin minimizarea cazurilor de halucinații de instrumente, parametri incorecți și acțiuni inadecuate, afacerile pot valorifica agenții AI pentru sarcini mai critice și sensibile. Cu SageMaker AI gestionând complexitățile implementării modelelor și gestionării infrastructurii, dezvoltatorii pot trece fără probleme de la reglajul fin la producție, realizând întregul potențial al soluțiilor lor AI agentice. Această capacitate se aliniază cu viziunea mai largă de operaționalizare a AI-ului agentic pentru un impact în lumea reală.

Pe scurt, combinația dintre personalizarea serverless a modelelor din Amazon SageMaker AI și capacitățile robuste de învățare ale RLVR oferă o cale puternică pentru construirea de sisteme de apelare a instrumentelor agentice extrem de fiabile. Această abordare inovatoare accelerează dezvoltarea, reduce sarcina operațională și, în cele din urmă, livrează agenți AI care performează cu o precizie și încredere fără precedent.

Întrebări frecvente

What is agentic tool calling and why is it crucial for AI agents?
Agentic tool calling is the mechanism that empowers AI agents to perform real-world actions like querying databases, initiating workflows, fetching real-time information, and executing tasks on a user's behalf. It's crucial because it bridges the gap between language understanding and practical application, allowing AI agents to move beyond just generating text to actually interacting with external systems and data sources, thereby making them genuinely useful in production environments.
What are the common challenges AI agents face when performing tool calls?
AI agents frequently encounter challenges such as hallucinating tools that don't exist, passing incorrect parameters to valid tools, or attempting actions when they should instead seek clarification from the user. These failures lead to unreliable agent behavior, eroding user trust and posing significant hurdles to the successful deployment of AI agents in critical production systems, ultimately limiting their real-world utility.
How does Amazon SageMaker AI address the challenges of agentic tool calling?
Amazon SageMaker AI addresses these challenges through its serverless model customization capabilities, particularly using Reinforcement Learning with Verifiable Rewards (RLVR). This approach allows developers to fine-tune large language models (LLMs) to improve their tool-calling accuracy without managing complex infrastructure. SageMaker AI handles the operational overhead of GPU provisioning, memory management, and reward infrastructure, letting users focus on data, reward functions, and model behavior.
What is Reinforcement Learning with Verifiable Rewards (RLVR) and how does it work?
RLVR is a powerful fine-tuning technique where the model generates multiple candidate responses for a given prompt. A predefined reward function then evaluates these candidates, providing a signal about their quality and correctness. The model subsequently updates its internal policy to favor responses that received higher reward scores, using methods like Group Relative Policy Optimization (GRPO), thereby iteratively learning to produce more accurate and desired outputs for specific tasks like tool calling.
Why is RLVR considered more effective than Supervised Fine-Tuning (SFT) for tool calling tasks?
While SFT requires meticulously labeled examples for every desired behavior (e.g., calling a tool, clarifying, refusing), RLVR operates differently. SFT can struggle to generalize decision-making between these behaviors. RLVR, by contrast, allows the model to learn the optimal decision boundary by generating multiple candidates and receiving immediate feedback via a reward function, enabling it to better understand *when* to execute a tool call versus *when* to ask for more information or refuse a request.
How is training data prepared for RLVR in Amazon SageMaker AI for agentic tool calling?
Training data for RLVR in SageMaker AI is prepared as JSONL files, where each entry contains a prompt (system and user messages) and a `ground_truth` within a `reward_model` field. This `ground_truth` is what the reward function scores against. To ensure robust agent behavior, datasets are typically designed to cover three distinct scenarios: executing a tool call when all parameters are present, clarifying when information is missing, and refusing requests that are out of scope or harmful. Synthetic data generation tools like Kiro can be used for this purpose.
What agent behaviors are critical for building robust and reliable tool-calling AI agents?
Building robust tool-calling AI agents requires them to master three critical behaviors. First, they must `Execute` a tool call accurately when all necessary information is provided by the user. Second, they need to `Clarify` by asking follow-up questions when essential parameters are missing from a user's request. Third, they must `Refuse` gracefully when a request is out of scope, harmful, or cannot be fulfilled. Training models across these behaviors ensures comprehensive and trustworthy agent performance.
What prerequisites are needed to use serverless model customization in SageMaker AI?
To leverage serverless model customization in Amazon SageMaker AI, users must have an active AWS account, an AWS IAM role configured with the necessary permissions for SageMaker, a SageMaker AI domain providing Studio access for development, and an Amazon Simple Storage Service (Amazon S3) bucket to store training data and model outputs securely. These components ensure a secure and functional environment for fine-tuning models.

Rămâi la curent

Primește ultimele știri AI în inbox-ul tău.

Distribuie