Code Velocity
أدوات المطورين

التطوير الموجه بالوكلاء: تعزيز علوم Copilot التطبيقية

·7 دقائق للقراءة·GitHub·المصدر الأصلي
مشاركة
لقطة شاشة تُظهر واجهة التطوير الموجه بالوكلاء لـ GitHub Copilot، تعرض اقتراحات التعليمات البرمجية وسير عمل الترميز التعاوني.

أتمتة الجهد الفكري الشاق باستخدام وكلاء الذكاء الاصطناعي

في المشهد المتطور بسرعة لهندسة البرمجيات، غالبًا ما يؤدي السعي وراء الكفاءة إلى ابتكارات رائدة. قام تايلر ماكجوفين، باحث في الذكاء الاصطناعي، مؤخرًا بتفصيل رحلة تجسد هذه الروح: أتمتة جهده الفكري الشاق من خلال التطوير الموجه بالوكلاء باستخدام GitHub Copilot. لا يتعلق الأمر هنا بمجرد كتابة تعليمات برمجية أسرع؛ بل يتعلق بتحويل دور المطور بشكل أساسي من التحليل المتكرر إلى حل المشكلات الإبداعي والإشراف الاستراتيجي. تسلط تجربة ماكجوفين الضوء على نمط مألوف بين المهندسين — بناء أدوات للقضاء على العمل الشاق — لكنه يأخذ الأمر خطوة أبعد من خلال تكليف وكلاء الذكاء الاصطناعي بمهام تحليلية معقدة كان من المستحيل سابقًا توسيع نطاقها يدويًا.

نبع إلهام ماكجوفين من جانب حاسم، ولكنه ساحق، في وظيفته: تحليل أداء وكلاء الترميز مقابل معايير مثل TerminalBench2 و SWEBench-Pro. تضمن ذلك تحليل 'المسارات' (trajectories) — وهي سجلات JSON مفصلة لعمليات تفكير الوكيل وإجراءاته — والتي يمكن أن تصل إلى مئات الآلاف من سطور التعليمات البرمجية عبر مهام وتشغيل معايير متعددة. بينما كان GitHub Copilot يساعد بالفعل في التعرف على الأنماط، فإن الطبيعة المتكررة لهذه الحلقة التحليلية كانت تتطلب أتمتة كاملة. أدى ذلك إلى إنشاء 'eval-agents'، وهو نظام مصمم لأتمتة هذا العبء الفكري، وتمكين فريقه في Copilot Applied Science من تحقيق كفاءات مماثلة.

المخطط الأساسي للتطوير الموجه بالوكلاء

تأسس مشروع 'eval-agents' بناءً على مجموعة واضحة من المبادئ التي تركز على التعاون وقابلية التوسع. كان هدف ماكجوفين هو جعل وكلاء الذكاء الاصطناعي هؤلاء سهلي المشاركة، وبسيطي التأليف، والوسيلة الأساسية لمساهمات الفريق. تعكس هذه الأهداف قيم GitHub الأساسية، لا سيما تلك التي صقلها خلال تجربته كمشرف على مشروع مفتوح المصدر (OSS) لـ GitHub CLI. ومع ذلك، كان الهدف الثالث — جعل وكلاء الترميز المساهم الأساسي — هو ما شكل اتجاه المشروع حقًا وفتح فوائد غير متوقعة للهدفين الأولين.

استفاد إعداد الترميز الوكيلي من عدة أدوات قوية لتبسيط عملية التطوير:

  • وكيل الترميز: Copilot CLI، الذي يوفر تفاعلًا وتحكمًا مباشرين.
  • النموذج المستخدم: Claude Opus 4.6، الذي يقدم قدرات متقدمة في الاستدلال وتوليد التعليمات البرمجية.
  • بيئة التطوير المتكاملة (IDE): VSCode، الذي يعمل كمساحة عمل مركزية للتطوير.

الأهم من ذلك، كانت Copilot SDK حاسمة، حيث وفرت الوصول إلى الأدوات الموجودة وخوادم MCP وآليات لتسجيل أدوات ومهارات جديدة. ألغى هذا الأساس الحاجة إلى إعادة اختراع الوظائف الأساسية للوكلاء، مما سمح للفريق بالتركيز على المنطق الخاص بالتطبيق. عززت هذه البيئة المتكاملة حلقة تطوير سريعة، مما أثبت أنه بالإعداد الصحيح، يمكن لوكلاء الذكاء الاصطناعي ليس فقط المساعدة ولكن أيضًا قيادة أجزاء كبيرة من جهد التطوير.

المبادئ الأساسية للترميز الوكيلي الفعال

يتطلب الانتقال إلى نموذج موجه بالوكلاء أكثر من مجرد أدوات؛ إنه يتطلب تحولًا في المنهجية. حدد ماكجوفين ثلاثة مبادئ أساسية أثبتت أنها ضرورية لتسريع التطوير وتعزيز التعاون:

  1. استراتيجيات المطالبة: التفاعل مع الوكلاء بفعالية يعني أن تكون حواريًا، ومفصلاً، وتعطي الأولوية للتخطيط.
  2. الاستراتيجيات المعمارية: تعد قاعدة التعليمات البرمجية النظيفة، والموثقة جيدًا، والتي أُعيدت هيكلتها أمرًا بالغ الأهمية للوكلاء للتنقل فيها والمساهمة فيها بفعالية.
  3. استراتيجيات التكرار: تبني عقلية "لوم العملية، وليس الوكلاء"، على غرار ثقافة عدم اللوم، يُمكّن من التجريب والتعلم السريعين.

عند تطبيق هذه الاستراتيجيات بانتظام، أدت إلى نتائج مدهشة. وشهادة على هذه الفعالية، قام خمسة مساهمين جدد، في غضون ثلاثة أيام فقط، بإضافة 11 وكيلًا جديدًا، وأربع مهارات جديدة، وقدموا مفهوم 'سير عمل وكيل التقييم' إلى المشروع. أسفر هذا الجهد التعاوني السريع عن تغيير ملحوظ قدره +28,858/-2,884 سطرًا من التعليمات البرمجية عبر 345 ملفًا، مما يوضح التأثير العميق لـ github-agentic-workflows في الممارسة العملية.

إليك ملخصًا للمبادئ الأساسية:

المبدأالوصفالفائدة للتطوير الموجه بالوكلاء
المطالبةتعامل مع الوكلاء كمهندسين كبار: وجه تفكيرهم، اشرح الافتراضات بشكل مفرط، استفد من أوضاع التخطيط (/plan) قبل التنفيذ. كن حواريًا ومفصلاً.يؤدي إلى مخرجات أكثر دقة وملاءمة، مما يساعد الوكلاء على حل المشكلات المعقدة بفعالية.
المعماريةأعط الأولوية لإعادة الهيكلة، والتوثيق الشامل، والاختبار القوي. حافظ على قاعدة التعليمات البرمجية نظيفة، سهلة القراءة، وجيدة التنظيم. قم بتنظيف التعليمات البرمجية الميتة بنشاط.يمكّن الوكلاء من فهم قاعدة التعليمات البرمجية، والأنماط، والوظائف الموجودة، مما يسهل المساهمات الدقيقة.
التكرارتبنى عقلية 'لوم العملية، وليس الوكلاء'. طبق إجراءات وقائية (تحديد أنواع صارم، أدوات تحليل التعليمات البرمجية، اختبارات شاملة) لمنع الأخطاء. تعلم من أخطاء الوكيل من خلال تحسين العمليات والإجراءات الوقائية.يعزز التكرار السريع، ويبني الثقة في مساهمات الوكلاء، ويحسن مسار التطوير باستمرار.

تسريع التطوير: الاستراتيجيات قيد العمل

إن نجاح هذا النهج الموجه بالوكلاء متجذر في التطبيق العملي لهذه المبادئ.

استراتيجيات المطالبة: توجيه مهندس الذكاء الاصطناعي

وكلاء الترميز بالذكاء الاصطناعي، رغم قوتهم، يتفوقون في المشكلات محددة النطاق. للمهام الأكثر تعقيدًا، يتطلبون توجيهًا، تمامًا مثل المهندسين المبتدئين. وجد ماكجوفين أن الانخراط في أسلوب حواري، وشرح الافتراضات، والاستفادة من أوضاع التخطيط كانت أكثر فعالية بكثير من الأوامر الموجزة. على سبيل المثال، عند إضافة اختبارات تراجعية قوية، أدت مطالبة مثل /plan I've recently observed Copilot happily updating tests to fit its new paradigms even though those tests shouldn't be updated. How can I create a reserved test space that Copilot can't touch or must reserve to protect against regressions? إلى بدء حوار مثمر. هذا التبادل، غالبًا مع نموذج Claude Opus 4.6 القوي، أدى إلى حلول متطورة مثل حواجز اختبار العقود (contract testing guardrails)، والتي يمكن للمهندسين البشريين فقط تحديثها، مما يضمن بقاء الوظائف الحيوية محمية.

الاستراتيجيات المعمارية: أساس الجودة بمساعدة الذكاء الاصطناعي

بالنسبة للمهندسين البشريين، غالبًا ما يتم التقليل من أولوية الحفاظ على قاعدة تعليمات برمجية نظيفة، وكتابة الاختبارات، وتوثيق الميزات تحت ضغط الميزات. في التطوير الموجه بالوكلاء، تصبح هذه الأمور ذات أهمية قصوى. اكتشف ماكجوفين أن قضاء الوقت في إعادة الهيكلة والتوثيق وإضافة حالات اختبار قد حسّن بشكل كبير قدرة Copilot على التنقل والمساهمة في قاعدة التعليمات البرمجية. المستودع الذي يعتمد على الوكلاء أولاً يزدهر بالوضوح. وهذا يسمح للمطورين حتى بمطالبة Copilot بأسئلة مثل "Knowing what I know now, how would I design this differently؟"، مما يحول عمليات إعادة الهيكلة النظرية إلى مشاريع قابلة للتحقيق بمساعدة الذكاء الاصطناعي. يضمن هذا التركيز المستمر على السلامة المعمارية إمكانية تسليم الميزات الجديدة بسهولة تامة.

استراتيجيات التكرار: الثقة بالعملية، وليس فقط الوكيل

لقد أدى تطور نماذج الذكاء الاصطناعي إلى تحويل العقلية من "ثق ولكن تحقق" إلى موقف أكثر ثقة، على غرار كيفية عمل الفرق الفعالة بفلسفة "لوم العملية، وليس الأشخاص". تعني "ثقافة عدم اللوم" هذه في التطوير الموجه بالوكلاء أنه عندما يرتكب وكيل الذكاء الاصطناعي خطأً، يكون الرد هو تحسين العمليات والإجراءات الوقائية الأساسية، بدلاً من لوم الوكيل نفسه. يتضمن ذلك تنفيذ ممارسات CI/CD صارمة: تحديد الأنواع الصارم لضمان توافق الواجهات، أدوات تحليل التعليمات البرمجية القوية لجودة التعليمات البرمجية، والاختبارات الشاملة للتكامل والاختبار من البداية إلى النهاية واختبارات العقود. بينما يمكن أن يكون بناء هذه الاختبارات يدويًا مكلفًا، فإن مساعدة الوكيل تجعل تنفيذها أرخص بكثير، مما يوفر ثقة حاسمة في التغييرات الجديدة. من خلال إعداد هذه الأنظمة، يُمكّن المطورون Copilot من التحقق من عمله الخاص، مما يعكس كيفية إعداد مهندس مبتدئ للنجاح.

إتقان حلقة التطوير الموجه بالوكلاء

يؤدي دمج هذه المبادئ في سير عمل عملي إلى إنشاء حلقة تطوير قوية ومسرعة:

  1. التخطيط مع Copilot: ابدأ ميزات جديدة باستخدام /plan. كرر التخطيط، مع التأكد من تضمين تحديثات الاختبار والتوثيق وإكمالها قبل تنفيذ التعليمات البرمجية. يمكن أن تكون الوثائق بمثابة مجموعة إضافية من الإرشادات للوكيل.
  2. التنفيذ التلقائي (Autopilot): اسمح لـ Copilot بتنفيذ الميزة باستخدام /autopilot، مستفيدًا من قدراته في توليد التعليمات البرمجية.
  3. المراجعة مع وكيل مراجعة التعليمات البرمجية لـ Copilot (Copilot Code Review): اطلب من Copilot بدء حلقة مراجعة. يتضمن ذلك طلب وكيل مراجعة التعليمات البرمجية لـ Copilot، ومعالجة تعليقاته، وإعادة طلب المراجعات حتى يتم حل المشكلات.
  4. المراجعة البشرية: قم بإجراء مراجعة بشرية نهائية لضمان فرض الأنماط وتوافق القرارات المعقدة مع النية الاستراتيجية.

وبعيدًا عن حلقة الميزة، يعد التحسين المستمر أمرًا أساسيًا. يطلب ماكجوفين بشكل روتيني من Copilot أوامر مثل /plan Review the code for any missing tests, any tests that may be broken, and dead code أو /plan Review the documentation and code to identify any documentation gaps. تضمن هذه الفحوصات، التي يتم إجراؤها أسبوعيًا أو عند دمج ميزات جديدة، بقاء بيئة التطوير الموجه بالوكلاء صحية وفعالة.

مستقبل هندسة البرمجيات مع الذكاء الاصطناعي

لقد تطور ما بدأ كمسعى شخصي لأتمتة مهمة تحليل محبطة إلى نموذج جديد لتطوير البرمجيات. إن التطوير الموجه بالوكلاء، المدعوم بأدوات مثل GitHub Copilot والنماذج المتقدمة مثل Claude Opus، لا يقتصر فقط على جعل المطورين أسرع؛ بل يتعلق بتغيير طبيعة العمل بشكل أساسي لباحثي الذكاء الاصطناعي ومهندسي البرمجيات على حد سواء. من خلال تفويض المهام الفكرية الشاقة إلى وكلاء أذكياء، يمكن للفرق تحقيق مستويات غير مسبوقة من الإنتاجية والتعاون والابتكار، مع التركيز في نهاية المطاف على التحديات الإبداعية والاستراتيجية التي تدفع التقدم حقًا. يبشر هذا النهج بمستقبل مثير حيث لا يكون وكلاء الذكاء الاصطناعي مجرد أدوات، بل أعضاء أساسيين في فريق التطوير، مما يحول كيفية بناء البرمجيات وصيانتها.

الأسئلة الشائعة

What is agent-driven development in the context of GitHub Copilot?
Agent-driven development refers to a software engineering paradigm where AI agents, such as those powered by GitHub Copilot, become primary contributors and collaborators in the development process. Instead of merely suggesting code, these agents actively participate in planning, implementing, refactoring, testing, and documenting software. This approach leverages the AI's ability to automate repetitive intellectual tasks, allowing human engineers to focus on higher-level problem-solving, strategic design, and creative work, thereby accelerating development cycles and improving code quality through structured AI assistance and rigorous guardrails.
How did the 'eval-agents' project originate?
The 'eval-agents' project was born out of a common challenge faced by AI researchers: analyzing vast quantities of data. Tyler McGoffin, an AI researcher, found himself repeatedly poring over hundreds of thousands of lines of 'trajectories'—detailed logs of AI agent thought processes and actions during benchmark evaluations. Recognizing this as an intellectually toilsome and repetitive task, he sought to automate it. By applying agent-driven development principles with GitHub Copilot, he created 'eval-agents' to analyze these trajectories, significantly reducing the manual effort required and transforming a tedious analytical chore into an automated process.
What are the key components of an agentic coding setup for this approach?
An effective agentic coding setup, as demonstrated in this approach, typically includes a powerful AI coding agent like Copilot CLI, a robust underlying large language model such as Claude Opus 4.6, and a feature-rich Integrated Development Environment (IDE) like VSCode. Crucially, leveraging an SDK, such as the Copilot SDK, provides access to essential tools, servers, and mechanisms for registering new tools and skills, offering a foundational infrastructure for building and deploying agents without reinventing core functionalities. This integrated environment enables seamless interaction between the developer and the AI agent throughout the development lifecycle.
What prompting strategies are most effective when working with AI coding agents?
Effective prompting strategies for AI coding agents emphasize conversational, verbose, and planning-oriented interactions. Rather than terse problem statements, developers achieve better results by engaging agents in a dialogue, over-explaining assumptions, and leveraging the AI's speed for initial planning before committing to code changes. This involves using planning modes (e.g., '/plan') to collaboratively brainstorm solutions and refine ideas. Treating the AI agent like a junior engineer who benefits from clear guidance, context, and iterative feedback helps it to produce more accurate and relevant outputs, leading to superior problem-solving and feature implementation.
Why are architectural strategies like refactoring and documentation crucial for agent-driven development?
Architectural strategies like frequent refactoring, comprehensive documentation, and robust testing are paramount in agent-driven development because they create a clean, navigable codebase that AI agents can effectively understand and interact with. A well-maintained codebase, much like for human engineers, allows AI agents to contribute features more accurately and efficiently. By prioritizing readability, consistent patterns, and up-to-date documentation, developers ensure that Copilot can interpret the codebase's intent, identify opportunities for improvement, and implement changes with minimal errors, making feature delivery trivial and facilitating continuous re-architecture.
How does a 'blameless culture' apply to iteration strategies in agent-driven development?
Applying a 'blameless culture' to agent-driven development means shifting from a 'trust but verify' mindset to one that prioritizes 'blame process, not agents.' This philosophy acknowledges that AI agents, like human engineers, can make mistakes. The focus then shifts to implementing robust processes and guardrails—such as strict typing, comprehensive linters, and extensive integration and end-to-end tests—to prevent errors. When an agent does make a mistake, the response is to learn from it and introduce additional guardrails, refining the processes and prompts to ensure the same error isn't repeated, fostering a rapid and psychologically safe iteration pipeline.
What is the typical development loop when using agent-driven development?
The typical development loop in agent-driven development begins with planning a new feature collaboratively with Copilot using a '/plan' prompt, ensuring testing and documentation updates are integrated early. Next, Copilot implements the feature, often using an '/autopilot' command. Following implementation, a review loop is initiated with a Copilot Code Review agent, addressing comments iteratively. The final stage involves a human review to enforce patterns and standards. Outside this feature loop, Copilot is periodically prompted to review for missing tests, code duplication, or documentation gaps, maintaining a continuously optimized agent-driven environment.
What kind of impact did agent-driven development have on team productivity and collaboration?
The impact of agent-driven development on team productivity and collaboration was transformative, leading to an incredibly rapid iteration pipeline. In one instance, a team of five new contributors, using this methodology, created 11 new agents, four new skills, and implemented complex workflows in less than three days. This amounted to a staggering change of +28,858/-2,884 lines of code across 345 files. This dramatic increase in output highlights how agent-driven development, by automating routine tasks and providing intelligent assistance, significantly accelerates feature delivery, fosters deeper collaboration, and enables teams to achieve unprecedented levels of innovation and efficiency.

ابقَ على اطلاع

احصل على آخر أخبار الذكاء الاصطناعي في بريدك.

مشاركة