Code Velocity
انٹرپرائز AI

ایمیزون بیڈروک: ایجنٹ کور رن ٹائم پر اسٹیٹ فل ایم سی پی کلائنٹ کی صلاحیتیں

·7 منٹ پڑھنے·AWS·اصل ماخذ
شیئر کریں
ایمیزون بیڈروک ایجنٹ کور رن ٹائم پر انٹرایکٹو AI ایجنٹ فلو کے ساتھ اسٹیٹ فل ایم سی پی کلائنٹ کی صلاحیتوں کو واضح کرنے والا خاکہ۔

اس فلیگ کے علاوہ، تین کلائنٹ کی صلاحیتیں خود بخود دستیاب ہو جاتی ہیں جب MCP کلائنٹ ابتدائی ہینڈ شیک کے دوران ان کے لیے تعاون کا اعلان کرتا ہے۔

نئی کلائنٹ کی صلاحیتوں میں گہرائی سے جائزہ: معلومات کی تلاش (Elicitation)، سیمپلنگ (Sampling)، اور پیش رفت (Progress)

اسٹیٹ فل موڈ میں منتقلی کے ساتھ، ایمیزون بیڈروک ایجنٹ کور رن ٹائم MCP وضاحت سے تین طاقتور کلائنٹ کی صلاحیتوں کو ان لاک کرتا ہے، جن میں سے ہر ایک جدید AI ایجنٹس کے لیے اہم مخصوص تعامل کے نمونوں کو حل کرنے کے لیے ڈیزائن کیا گیا ہے۔ یہ صلاحیتیں اس چیز کو تبدیل کرتی ہیں جو کبھی ایک سخت، یک طرفہ کمانڈ ایگزیکیوشن تھی، ایک MCP سرور اور اس کے منسلک کلائنٹس کے درمیان ایک سیال، دو طرفہ مکالمے میں۔ یہ نوٹ کرنا اہم ہے کہ یہ خصوصیات آپٹ-ان ہیں، یعنی کلائنٹس ابتدا کے دوران اپنی حمایت کا اعلان کرتے ہیں، اور سرورز کو صرف ان صلاحیتوں کا استعمال کرنا چاہیے جن کا منسلک کلائنٹ نے اشتہار دیا ہے۔

معلومات کی تلاش (Elicitation): AI ایجنٹس میں ڈائنامک صارف ان پٹ کو فعال کرنا

معلومات کی تلاش (Elicitation) انٹرایکٹو AI کا ایک بنیادی ستون ہے، جو ایک MCP سرور کو اپنی کارکردگی کو احتیاط سے روکنے اور کلائنٹ کے ذریعے صارف سے براہ راست مخصوص، منظم ان پٹ کی درخواست کرنے کی اجازت دیتی ہے۔ یہ صلاحیت ٹول کو اپنے ورک فلو کے اندر مناسب لمحات پر درست سوالات پوچھنے کے لیے بااختیار بناتی ہے، چاہے وہ کسی فیصلے کی تصدیق کرنا ہو، صارف کی ترجیح حاصل کرنا ہو، یا پچھلے آپریشنز سے ماخوذ قدر جمع کرنا ہو۔ سرور یہ elicitation/create JSON-RPC درخواست بھیج کر شروع کرتا ہے، جس میں ایک انسان کے پڑھنے کے قابل پیغام اور ایک اختیاری requestedSchema شامل ہوتا ہے جو مطلوبہ جواب کی ساخت کی وضاحت کرتا ہے۔

MCP وضاحت معلومات کی تلاش کے لیے دو مضبوط طریقوں کو فراہم کرتی ہے:

  • فارم موڈ (Form mode): یہ MCP کلائنٹ کے ذریعے براہ راست منظم ڈیٹا اکٹھا کرنے کے لیے مثالی ہے، جیسے کنفیگریشن پیرامیٹرز، صارف کی ترجیحات، یا سادہ تصدیقات جہاں حساس ڈیٹا شامل نہ ہو۔
  • یو آر ایل موڈ (URL mode): ایسے تعاملات کے لیے جن میں ایک محفوظ، آؤٹ آف بینڈ (out-of-band) عمل کی ضرورت ہوتی ہے، جیسے OAuth فلو، ادائیگی کی پروسیسنگ، یا حساس معلومات کا اندراج، URL موڈ صارف کو ایک بیرونی URL پر بھیجتا ہے۔ یہ یقینی بناتا ہے کہ حساس معلومات MCP کلائنٹ کو مکمل طور پر نظر انداز کر کے گزرتی ہے، جس سے سیکیورٹی اور تعمیل میں اضافہ ہوتا ہے۔

معلومات کی تلاش کی درخواست موصول ہونے پر، کلائنٹ ایک مناسب ان پٹ انٹرفیس پیش کرتا ہے۔ صارف کا بعد کا عمل سرور کو تین عملی جوابات کے ماڈل کو متحرک کرتا ہے: accept (صارف نے مطلوبہ ڈیٹا فراہم کیا)، decline (صارف نے واضح طور پر درخواست کو مسترد کر دیا)، یا cancel (صارف نے کوئی انتخاب کیے بغیر پرامپٹ کو مسترد کر دیا)۔ ذہین سرورز ان میں سے ہر ایک صورت حال کو خوبصورتی سے ہینڈل کرنے کے لیے ڈیزائن کیے گئے ہیں، جس سے ایک مضبوط اور صارف دوست تجربہ یقینی ہوتا ہے۔ مثال کے طور پر، ایک add_expense_interactive ٹول، جیسا کہ ماخذ مواد میں دکھایا گیا ہے، ایک صارف کو سوالات کی ایک سیریز — رقم، تفصیل، زمرہ، اور حتمی تصدیق — کے ذریعے رہنمائی کر سکتا ہے اس سے پہلے کہ ڈیٹا کو Amazon DynamoDB جیسے بیک اینڈ میں محفوظ کرے۔ ہر قدم Pydantic ماڈلز کا استعمال کرتا ہے تاکہ مطلوبہ ان پٹ کی وضاحت کی جا سکے، جسے FastMCP elicitation/create درخواست کے لیے درکار JSON Schema میں آسانی سے تبدیل کر دیتا ہے۔

سیمپلنگ اور پیش رفت کی اطلاعات: LLM تعامل اور شفافیت کو فروغ دینا

براہ راست صارف تعامل کے علاوہ، سیمپلنگ (Sampling) MCP سرور کو sampling/createMessage کے ذریعے کلائنٹ سے براہ راست LLM سے تیار کردہ مواد کی درخواست کرنے کی صلاحیت فراہم کرتی ہے۔ یہ ایک اہم میکانزم ہے کیونکہ یہ سرور پر ٹول لاجک کو طاقتور لینگویج ماڈل کی صلاحیتوں کا فائدہ اٹھانے کی اجازت دیتا ہے بغیر اپنے LLM کی معلومات یا براہ راست API انٹیگریشنز کو منظم کرنے کی ضرورت کے۔ سرور محض ایک پرامپٹ اور اختیاری ماڈل کی ترجیحات فراہم کرتا ہے، اور کلائنٹ، ایک ثالث کے طور پر کام کرتے ہوئے، درخواست کو اپنے منسلک LLM کو بھیجتا ہے اور تیار کردہ جواب واپس کرتا ہے۔ یہ بہت سے عملی ایپلی کیشنز کے دروازے کھولتا ہے، جن میں ذاتی نوعیت کی خلاصہ نگاری، منظم ڈیٹا سے قدرتی زبان کی وضاحتیں تیار کرنا، یا جاری گفتگو کی بنیاد پر سیاق و سباق سے آگاہ سفارشات پیدا کرنا شامل ہیں۔

ایسے آپریشنز کے لیے جو وقت پر پھیلتے ہیں، پیش رفت کی اطلاعات (Progress Notifications) انمول بن جاتی ہیں۔ یہ صلاحیت ایک MCP سرور کو طویل مدتی کاموں کے دوران بڑھتی ہوئی اپ ڈیٹس کی اطلاع دینے کی اجازت دیتی ہے۔ ctx.report_progress(progress, total) کا استعمال کرتے ہوئے، سرور مسلسل اپ ڈیٹس خارج کر سکتا ہے جنہیں کلائنٹ بصری فیڈ بیک، جیسے ایک پیش رفت بار یا ایک حیثیت انڈیکیٹر، میں ترجمہ کر سکتے ہیں۔ چاہے وہ وسیع ڈیٹا ذرائع میں تلاش کرنا ہو یا پیچیدہ حسابی کام انجام دینا ہو، شفاف پیش رفت کی اپ ڈیٹس یقینی بناتی ہیں کہ صارفین باخبر رہیں، مایوسی کو روکتے ہوئے اور مجموعی صارف کے تجربے کو بڑھاتے ہوئے، بجائے اس کے کہ انہیں ایک خالی سکرین کو گھورتے ہوئے یہ سوچنا پڑے کہ آیا سسٹم ابھی بھی فعال ہے۔

بیڈروک ایجنٹ کور رن ٹائم کے ساتھ AI ایجنٹ کی ترقی کو مستقبل میں محفوظ بنانا

ایمیزون بیڈروک ایجنٹ کور رن ٹائم پر اسٹیٹ فل MCP کلائنٹ کی صلاحیتوں کا تعارف AI ایجنٹ کی ترقی میں ایک اہم چھلانگ کی نمائندگی کرتا ہے۔ پہلے اسٹیٹ لیس تعاملات کو ڈائنامک، دو طرفہ گفتگو میں تبدیل کر کے، AWS ڈویلپرز کو زیادہ ذہین، ریسپانسیو، اور صارف دوست AI ایپلی کیشنز بنانے کے لیے بااختیار بناتا ہے۔ یہ صلاحیتیں – ہدایت یافتہ صارف ان پٹ کے لیے معلومات کی تلاش (Elicitation)، آن ڈیمانڈ LLM جنریشن کے لیے سیمپلنگ (Sampling)، اور ریئل ٹائم شفافیت کے لیے پیش رفت کی اطلاعات (Progress Notifications) – اجتماعی طور پر انٹرایکٹو ایجنٹ ورک فلوز کے ایک نئے دور کو ان لاک کرتی ہیں۔ چونکہ AI ارتقا پذیر ہوتا جا رہا ہے، یہ بنیادی صلاحیتیں پیچیدہ کاروباری عمل میں بغیر کسی رکاوٹ کے ضم ہونے، صارف کی ضروریات کے مطابق ڈھالنے، اور غیر معمولی قدر فراہم کرنے والے نفیس آپریشنلائزنگ ایجنٹک AI کو بنانے کے لیے اہم ہوں گی۔

اکثر پوچھے جانے والے سوالات

What problem do stateful MCP client capabilities solve on Amazon Bedrock AgentCore Runtime?
Stateful Model Context Protocol (MCP) client capabilities on Amazon Bedrock AgentCore Runtime address the critical limitations of previous stateless AI agent implementations. Stateless agents struggled with interactive, multi-turn workflows, as they couldn't pause mid-execution to solicit user input for clarification, request dynamic large language model (LLM)-generated content, or provide real-time progress updates during lengthy operations. Each request was independent, lacking shared context. This new feature fundamentally transforms agent interactions by enabling bidirectional conversations, allowing agents to maintain conversational threads, gather necessary input precisely when needed, generate dynamic content on the fly, and transparently inform users about ongoing processes. This leads to the development of significantly more responsive, intelligent, and user-centric AI applications capable of complex, adaptive workflows.
How does the transition from stateless to stateful mode work on AgentCore Runtime?
The transition to stateful mode within Amazon Bedrock AgentCore Runtime is initiated by a simple configuration adjustment: setting `stateless_http=False` when starting your MCP server. Once enabled, AgentCore Runtime provisions a dedicated microVM for each individual user session. This microVM is designed for persistence throughout the session's duration, which can last up to 8 hours or expire after 15 minutes of inactivity, ensuring isolated CPU, memory, and filesystem resources for each session. Continuity across interactions is maintained through a unique `Mcp-Session-Id` header. This ID is established during the initial handshake and subsequently included by the client in all follow-up requests, ensuring they are accurately routed back to the correct, persistent session, thereby preserving context and enabling complex, interactive dialogues.
What is Elicitation, and how does it enhance AI agent interactions?
Elicitation is a powerful stateful MCP capability that allows an AI agent (acting as the MCP server) to intelligently pause its ongoing execution and request specific, structured input directly from the user via the client. This significantly enhances interactive agent workflows by enabling agents to ask targeted questions at precise, opportune moments within their operational flow. For example, an agent might use elicitation to confirm a decision, gather user preferences, or collect particular data values that are contingent on preceding steps. The feature supports two robust modes: 'Form mode' for direct structured data collection through the MCP client, and 'URL mode' for secure, out-of-band interactions that require directing the user to an external URL (e.g., for OAuth or sensitive credential entry). The user's response – whether accepting, declining, or canceling the request – is then returned to the server, allowing the agent to dynamically adapt its workflow based on real-time human feedback.
How does Sampling capability benefit AI agents without managing LLM credentials?
Sampling equips the MCP server with the ability to request sophisticated large language model (LLM)-generated content directly from the client using the `sampling/createMessage` mechanism. A key benefit is that the MCP server itself does not need to manage its own LLM credentials, API keys, or direct integrations with various LLM providers. Instead, the server simply provides a well-formed prompt and any optional model preferences to the client. The client then acts as an intelligent intermediary, forwarding this request to its connected LLM and returning the generated response back to the server. This abstraction allows AI agents to seamlessly leverage powerful language model capabilities for tasks such as crafting personalized summaries, generating natural-language explanations from complex structured data, or producing context-aware recommendations, all while simplifying the operational overhead and security concerns associated with LLM management on the server side.

اپ ڈیٹ رہیں

تازہ ترین AI خبریں اپنے ان باکس میں حاصل کریں۔

شیئر کریں