Code Velocity
Outils pour Développeurs

Développement piloté par agent : Surcharger la science appliquée de Copilot

·7 min de lecture·GitHub·Source originale
Partager
Capture d'écran de l'interface de développement piloté par agent de GitHub Copilot, montrant des suggestions de code et des flux de travail de codage collaboratifs.

title: "Développement piloté par agent : Surcharger la science appliquée de Copilot" slug: "agent-driven-development-in-copilot-applied-science" date: "2026-04-02" lang: "fr" source: "https://github.blog/ai-and-ml/github-copilot/agent-driven-development-in-copilot-applied-science/" category: "Outils pour Développeurs" keywords:

  • Développement piloté par agent
  • GitHub Copilot
  • Agents de codage IA
  • Ingénierie logicielle
  • Automatisation
  • Claude Opus
  • Outils de développement
  • Recherche en IA
  • Ingénierie d'invites
  • Refactorisation
  • CI/CD
  • Flux de travail IA meta_description: "Découvrez comment le développement piloté par agent avec GitHub Copilot et Claude Opus révolutionne l'ingénierie logicielle, automatise les tâches intellectuelles répétitives et accélère les flux de travail collaboratifs." image: "/images/articles/agent-driven-development-in-copilot-applied-science.png" image_alt: "Capture d'écran de l'interface de développement piloté par agent de GitHub Copilot, montrant des suggestions de code et des flux de travail de codage collaboratifs." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • GitHub schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Qu'est-ce que le développement piloté par agent dans le contexte de GitHub Copilot ?" answer: "Le développement piloté par agent fait référence à un paradigme d'ingénierie logicielle où les agents IA, tels que ceux alimentés par GitHub Copilot, deviennent des contributeurs et collaborateurs principaux dans le processus de développement. Au lieu de simplement suggérer du code, ces agents participent activement à la planification, à l'implémentation, à la refactorisation, aux tests et à la documentation des logiciels. Cette approche tire parti de la capacité de l'IA à automatiser les tâches intellectuelles répétitives, permettant aux ingénieurs humains de se concentrer sur la résolution de problèmes de haut niveau, la conception stratégique et le travail créatif, accélérant ainsi les cycles de développement et améliorant la qualité du code grâce à une assistance IA structurée et des garde-fous rigoureux."
  • question: "Comment le projet 'eval-agents' a-t-il vu le jour ?" answer: "Le projet 'eval-agents' est né d'un défi courant rencontré par les chercheurs en IA : l'analyse de vastes quantités de données. Tyler McGoffin, un chercheur en IA, s'est retrouvé à parcourir à plusieurs reprises des centaines de milliers de lignes de 'trajectoires' – des journaux détaillés des processus de pensée et des actions des agents IA lors des évaluations de référence. Reconnaissant qu'il s'agissait d'une tâche intellectuellement ardue et répétitive, il a cherché à l'automatiser. En appliquant les principes du développement piloté par agent avec GitHub Copilot, il a créé 'eval-agents' pour analyser ces trajectoires, réduisant considérablement l'effort manuel requis et transformant une corvée analytique fastidieuse en un processus automatisé."
  • question: "Quels sont les composants clés d'une configuration de codage agentique pour cette approche ?" answer: "Une configuration de codage agentique efficace, telle que démontrée dans cette approche, comprend généralement un puissant agent de codage IA comme Copilot CLI, un modèle de langage étendu sous-jacent robuste tel que Claude Opus 4.6, et un environnement de développement intégré (IDE) riche en fonctionnalités comme VSCode. Il est crucial de tirer parti d'un SDK, tel que le Copilot SDK, qui donne accès à des outils essentiels, des serveurs et des mécanismes pour enregistrer de nouveaux outils et compétences, offrant une infrastructure fondamentale pour la création et le déploiement d'agents sans réinventer les fonctionnalités de base. Cet environnement intégré permet une interaction fluide entre le développeur et l'agent IA tout au long du cycle de vie du développement."
  • question: "Quelles stratégies d'invites sont les plus efficaces lorsque l'on travaille avec des agents de codage IA ?" answer: "Les stratégies d'invites efficaces pour les agents de codage IA mettent l'accent sur des interactions conversationnelles, verbeuses et axées sur la planification. Plutôt que des énoncés de problèmes concis, les développeurs obtiennent de meilleurs résultats en engageant les agents dans un dialogue, en expliquant excessivement les hypothèses et en tirant parti de la rapidité de l'IA pour la planification initiale avant de s'engager dans des modifications de code. Cela implique l'utilisation de modes de planification (par exemple, '/plan') pour réfléchir collectivement à des solutions et affiner des idées. Traiter l'agent IA comme un ingénieur junior qui bénéficie de directives claires, de contexte et de retours itératifs l'aide à produire des résultats plus précis et pertinents, conduisant à une meilleure résolution de problèmes et implémentation de fonctionnalités."
  • question: "Pourquoi les stratégies architecturales comme la refactorisation et la documentation sont-elles cruciales pour le développement piloté par agent ?" answer: "Les stratégies architecturales comme la refactorisation fréquente, la documentation complète et les tests robustes sont primordiales dans le développement piloté par agent, car elles créent une base de code propre et navigable que les agents IA peuvent comprendre et avec laquelle ils peuvent interagir efficacement. Une base de code bien entretenue, tout comme pour les ingénieurs humains, permet aux agents IA de contribuer à des fonctionnalités de manière plus précise et efficace. En priorisant la lisibilité, les modèles cohérents et une documentation à jour, les développeurs s'assurent que Copilot peut interpréter l'intention de la base de code, identifier les opportunités d'amélioration et implémenter les changements avec un minimum d'erreurs, rendant la livraison de fonctionnalités triviale et facilitant la ré-architecture continue."
  • question: "Comment une 'culture sans reproche' s'applique-t-elle aux stratégies d'itération dans le développement piloté par agent ?" answer: "Appliquer une 'culture sans reproche' au développement piloté par agent signifie passer d'une mentalité de 'faire confiance mais vérifier' à une mentalité qui privilégie 'blâmer le processus, pas les agents'. Cette philosophie reconnaît que les agents IA, tout comme les ingénieurs humains, peuvent commettre des erreurs. L'accent est alors mis sur l'implémentation de processus et de garde-fous robustes — tels que le typage strict, des linters complets, et des tests d'intégration et de bout en bout étendus — pour prévenir les erreurs. Lorsqu'un agent commet une erreur, la réponse est d'en tirer des leçons et d'introduire des garde-fous supplémentaires, en affinant les processus et les invites pour s'assurer que la même erreur n'est pas répétée, favorisant ainsi un pipeline d'itération rapide et psychologiquement sûr."
  • question: "Quel est le cycle de développement typique lors de l'utilisation du développement piloté par agent ?" answer: "Le cycle de développement typique dans le développement piloté par agent commence par la planification collaborative d'une nouvelle fonctionnalité avec Copilot à l'aide d'une invite '/plan', en s'assurant que les mises à jour des tests et de la documentation sont intégrées dès le début. Ensuite, Copilot implémente la fonctionnalité, souvent en utilisant une commande '/autopilot'. Après l'implémentation, une boucle de révision est initiée avec un agent de révision de code Copilot, traitant les commentaires de manière itérative. La phase finale implique une révision humaine pour faire respecter les modèles et les normes. En dehors de cette boucle de fonctionnalités, Copilot est régulièrement invité à vérifier l'absence de tests manquants, de duplication de code ou de lacunes dans la documentation, maintenant ainsi un environnement piloté par agent continuellement optimisé."
  • question: "Quel impact le développement piloté par agent a-t-il eu sur la productivité et la collaboration des équipes ?" answer: "L'impact du développement piloté par agent sur la productivité et la collaboration des équipes a été transformateur, menant à un pipeline d'itération incroyablement rapide. Dans un cas, une équipe de cinq nouveaux contributeurs, utilisant cette méthodologie, a créé 11 nouveaux agents, quatre nouvelles compétences, et implémenté des flux de travail complexes en moins de trois jours. Cela a représenté un changement stupéfiant de +28 858/-2 884 lignes de code à travers 345 fichiers. Cette augmentation spectaculaire de la production met en évidence la façon dont le développement piloté par agent, en automatisant les tâches routinières et en fournissant une assistance intelligente, accélère considérablement la livraison des fonctionnalités, favorise une collaboration plus profonde et permet aux équipes d'atteindre des niveaux sans précédent d'innovation et d'efficacité."

Automatiser la pénibilité intellectuelle avec les agents IA

Dans le paysage en constante évolution de l'ingénierie logicielle, la quête d'efficacité mène souvent à des innovations révolutionnaires. Tyler McGoffin, un chercheur en IA, a récemment détaillé un parcours qui incarne cet esprit : l'automatisation de sa pénibilité intellectuelle grâce au développement piloté par agent avec GitHub Copilot. Il ne s'agit pas seulement de coder plus vite ; il s'agit de transformer fondamentalement le rôle du développeur, passant de l'analyse répétitive à la résolution créative de problèmes et à la supervision stratégique. L'expérience de McGoffin met en lumière un schéma familier chez les ingénieurs – construire des outils pour éliminer les tâches ingrates – mais va plus loin en confiant aux agents IA des tâches analytiques complexes qu'il était auparavant impossible de réaliser manuellement à grande échelle.

L'inspiration de McGoffin est venue d'un aspect critique, mais accablant, de son travail : l'analyse des performances des agents de codage par rapport à des benchmarks comme TerminalBench2 et SWEBench-Pro. Cela impliquait la dissection de 'trajectoires' – des journaux JSON détaillés des processus de pensée et des actions d'un agent – ce qui pouvait représenter des centaines de milliers de lignes de code sur de nombreuses tâches et exécutions de benchmarks. Alors que GitHub Copilot aidait déjà à la reconnaissance de motifs, la nature répétitive de cette boucle analytique réclamait une automatisation complète. Cela a conduit à la création de 'eval-agents', un système conçu pour automatiser cette charge intellectuelle, permettant à son équipe de Copilot Applied Science d'atteindre des efficacités similaires.

Le plan du développement piloté par agent

La genèse de 'eval-agents' a été guidée par un ensemble clair de principes axés sur la collaboration et l'évolutivité. McGoffin visait à rendre ces agents IA faciles à partager, simples à créer, et le principal vecteur des contributions de l'équipe. Ces objectifs reflètent les valeurs fondamentales de GitHub, en particulier celles affinées lors de son expérience en tant que mainteneur OSS pour GitHub CLI. Cependant, c'est le troisième objectif – faire des agents de codage le contributeur principal – qui a véritablement façonné la direction du projet et débloqué des avantages inattendus pour les deux premiers.

La configuration de codage agentique a tiré parti de plusieurs outils puissants pour rationaliser le processus de développement :

  • Agent de codage : Copilot CLI, offrant une interaction et un contrôle directs.
  • Modèle utilisé : Claude Opus 4.6, offrant des capacités de raisonnement et de génération de code avancées.
  • IDE : VSCode, servant d'espace de travail central pour le développement.

Il est crucial de noter que le Copilot SDK a joué un rôle déterminant, en donnant accès aux outils existants, aux serveurs MCP et aux mécanismes d'enregistrement de nouveaux outils et compétences. Cette base a éliminé la nécessité de réinventer les fonctionnalités agentiques de base, permettant à l'équipe de se concentrer sur la logique spécifique à l'application. Cet environnement intégré a favorisé une boucle de développement rapide, prouvant qu'avec la bonne configuration, les agents IA pouvaient non seulement assister mais aussi diriger des portions significatives de l'effort de développement.

Principes fondamentaux pour un codage agentique efficace

La transition vers un paradigme piloté par agent exige plus que de simples outils ; elle demande un changement de méthodologie. McGoffin a identifié trois principes fondamentaux qui se sont avérés essentiels pour accélérer le développement et favoriser la collaboration :

  1. Stratégies d'invites : Interagir efficacement avec les agents signifie être conversationnel, verbeux et prioriser la planification.
  2. Stratégies architecturales : Une base de code propre, bien documentée et refactorisée est primordiale pour que les agents puissent y naviguer et y contribuer efficacement.
  3. Stratégies d'itération : Adopter une mentalité de "blâmer le processus, pas les agents", similaire à une culture sans reproche, permet une expérimentation et un apprentissage rapides.

Ces stratégies, lorsqu'elles sont appliquées de manière cohérente, ont conduit à des résultats étonnants. En témoignage de cette efficacité, cinq nouveaux contributeurs, en seulement trois jours, ont collectivement ajouté 11 nouveaux agents, quatre nouvelles compétences et introduit le concept de 'flux de travail d'agents d'évaluation' au projet. Ce sprint collaboratif a abouti à un changement remarquable de +28 858/-2 884 lignes de code sur 345 fichiers, démontrant l'impact profond des flux de travail agentiques de GitHub en pratique.

Voici un résumé des principes fondamentaux :

PrincipeDescriptionBénéfice pour le développement piloté par agent
InvitesTraitez les agents comme des ingénieurs seniors : guidez leur pensée, sur-expliquez les hypothèses, utilisez les modes de planification (/plan) avant l'exécution. Soyez conversationnel et détaillé.Conduit à des résultats plus précis et pertinents, aidant les agents à résoudre efficacement des problèmes complexes.
ArchitecturalPriorisez la refactorisation, la documentation complète et les tests robustes. Maintenez la base de code propre, lisible et bien structurée. Nettoyez activement le code mort.Permet aux agents de comprendre la base de code, les modèles et les fonctionnalités existantes, facilitant des contributions précises.
ItérationAdoptez une mentalité de "blâmer le processus, pas les agents". Mettez en œuvre des garde-fous (typage strict, linters, tests exhaustifs) pour prévenir les erreurs. Apprenez des erreurs des agents en améliorant les processus et les garde-fous.Favorise l'itération rapide, renforce la confiance dans les contributions des agents et améliore continuellement le pipeline de développement.

Accélérer le développement : les stratégies en action

Le succès de cette approche pilotée par agent repose sur l'application pratique de ces principes.

Stratégies d'invites : Guider l'ingénieur IA

Les agents de codage IA, bien que puissants, excellent dans les problèmes bien définis. Pour des tâches plus complexes, ils nécessitent des directives, un peu comme les ingénieurs juniors. McGoffin a constaté qu'un style conversationnel, l'explication des hypothèses et l'exploitation des modes de planification étaient bien plus efficaces que des commandes laconiques. Par exemple, lors de l'ajout de tests de régression robustes, une invite comme /plan J'ai récemment observé Copilot mettre à jour les tests avec enthousiasme pour s'adapter à ses nouveaux paradigmes, même si ces tests ne devraient pas être mis à jour. Comment puis-je créer un espace de test réservé que Copilot ne peut pas toucher ou doit réserver pour protéger contre les régressions ? a initié un dialogue productif. Ce va-et-vient, souvent avec le puissant modèle Claude Opus 4.6, a conduit à des solutions sophistiquées comme des garde-fous de tests de contrat, que seuls les ingénieurs humains pouvaient mettre à jour, garantissant que les fonctionnalités critiques restaient protégées.

Stratégies architecturales : Le fondement de la qualité assistée par IA

Pour les ingénieurs humains, le maintien d'une base de code propre, la rédaction de tests et la documentation des fonctionnalités sont souvent dépriorisés sous la pression des fonctionnalités. Dans le développement piloté par agent, ces aspects deviennent primordiaux. McGoffin a découvert que le fait de consacrer du temps à la refactorisation, à la documentation et à l'ajout de cas de test améliorait considérablement la capacité de Copilot à naviguer et à contribuer à la base de code. Un dépôt 'agent-first' prospère grâce à la clarté. Cela permet aux développeurs de même interroger Copilot avec des questions comme 'Connaissant ce que je sais maintenant, comment concevrais-je cela différemment ?', transformant les refactorisations théoriques en projets réalisables avec l'aide de l'IA. Cette concentration continue sur la santé architecturale garantit que les nouvelles fonctionnalités peuvent être livrées trivialement.

Stratégies d'itération : Faire confiance au processus, pas seulement à l'agent

L'évolution des modèles d'IA a fait passer l'état d'esprit de 'faire confiance mais vérifier' à une approche plus confiante, analogue à la manière dont les équipes efficaces opèrent avec une philosophie de 'blâmer le processus, pas les personnes'. Cette 'culture sans reproche' dans le développement piloté par agent signifie que lorsqu'un agent IA commet une erreur, la réponse est d'améliorer les processus et les garde-fous sous-jacents, plutôt que de blâmer l'agent lui-même. Cela implique la mise en œuvre de pratiques CI/CD rigoureuses : typage strict pour assurer la conformité des interfaces, linters robustes pour la qualité du code, et des tests d'intégration, de bout en bout et de contrat étendus. Bien que la construction manuelle de ces tests puisse être coûteuse, l'assistance des agents les rend beaucoup moins chers à implémenter, offrant une confiance essentielle dans les nouveaux changements. En mettant en place ces systèmes, les développeurs donnent à Copilot les moyens de vérifier son propre travail, à l'image de la façon dont un ingénieur junior est préparé au succès.

Maîtriser la boucle de développement piloté par agent

L'intégration de ces principes dans un flux de travail pratique crée une boucle de développement puissante et accélérée :

  1. Planifier avec Copilot : Initiez de nouvelles fonctionnalités en utilisant /plan. Iitérez sur le plan, en vous assurant que les tests et les mises à jour de la documentation sont inclus et complétés avant l'implémentation du code. La documentation peut servir d'ensemble de directives supplémentaires pour l'agent.
  2. Implémenter avec Autopilot : Permettez à Copilot d'implémenter la fonctionnalité en utilisant /autopilot, en tirant parti de ses capacités de génération de code.
  3. Réviser avec Copilot Code Review : Invitez Copilot à initier une boucle de révision. Cela implique de demander à l'agent Copilot Code Review, de traiter ses commentaires et de redemander des révisions jusqu'à ce que les problèmes soient résolus.
  4. Révision humaine : Effectuez une dernière révision humaine pour s'assurer que les modèles sont respectés et que les décisions complexes s'alignent sur l'intention stratégique.

Au-delà de la boucle de fonctionnalités, l'optimisation continue est essentielle. McGoffin invite régulièrement Copilot avec des commandes comme /plan Vérifier le code pour tout test manquant, tout test qui pourrait être cassé, et le code mort ou /plan Vérifier la documentation et le code pour identifier les lacunes documentaires. Ces vérifications, exécutées hebdomadairement ou à mesure que de nouvelles fonctionnalités sont intégrées, garantissent que l'environnement de développement piloté par agent reste sain et efficace.

L'avenir de l'ingénierie logicielle avec l'IA

Ce qui a commencé comme une quête personnelle pour automatiser une tâche d'analyse frustrante a évolué vers un nouveau paradigme pour le développement logiciel. Le développement piloté par agent, alimenté par des outils comme GitHub Copilot et des modèles avancés tels que Claude Opus, ne vise pas seulement à rendre les développeurs plus rapides ; il s'agit de modifier fondamentalement la nature du travail pour les chercheurs en IA et les ingénieurs logiciels. En déchargeant la pénibilité intellectuelle sur des agents intelligents, les équipes peuvent atteindre des niveaux sans précédent de productivité, de collaboration et d'innovation, se concentrant finalement sur les défis créatifs et stratégiques qui stimulent réellement le progrès. Cette approche annonce un avenir passionnant où les agents IA ne sont pas seulement des outils, mais des membres à part entière de l'équipe de développement, transformant la façon dont nous construisons et maintenons les logiciels.

Questions Fréquentes

What is agent-driven development in the context of GitHub Copilot?
Agent-driven development refers to a software engineering paradigm where AI agents, such as those powered by GitHub Copilot, become primary contributors and collaborators in the development process. Instead of merely suggesting code, these agents actively participate in planning, implementing, refactoring, testing, and documenting software. This approach leverages the AI's ability to automate repetitive intellectual tasks, allowing human engineers to focus on higher-level problem-solving, strategic design, and creative work, thereby accelerating development cycles and improving code quality through structured AI assistance and rigorous guardrails.
How did the 'eval-agents' project originate?
The 'eval-agents' project was born out of a common challenge faced by AI researchers: analyzing vast quantities of data. Tyler McGoffin, an AI researcher, found himself repeatedly poring over hundreds of thousands of lines of 'trajectories'—detailed logs of AI agent thought processes and actions during benchmark evaluations. Recognizing this as an intellectually toilsome and repetitive task, he sought to automate it. By applying agent-driven development principles with GitHub Copilot, he created 'eval-agents' to analyze these trajectories, significantly reducing the manual effort required and transforming a tedious analytical chore into an automated process.
What are the key components of an agentic coding setup for this approach?
An effective agentic coding setup, as demonstrated in this approach, typically includes a powerful AI coding agent like Copilot CLI, a robust underlying large language model such as Claude Opus 4.6, and a feature-rich Integrated Development Environment (IDE) like VSCode. Crucially, leveraging an SDK, such as the Copilot SDK, provides access to essential tools, servers, and mechanisms for registering new tools and skills, offering a foundational infrastructure for building and deploying agents without reinventing core functionalities. This integrated environment enables seamless interaction between the developer and the AI agent throughout the development lifecycle.
What prompting strategies are most effective when working with AI coding agents?
Effective prompting strategies for AI coding agents emphasize conversational, verbose, and planning-oriented interactions. Rather than terse problem statements, developers achieve better results by engaging agents in a dialogue, over-explaining assumptions, and leveraging the AI's speed for initial planning before committing to code changes. This involves using planning modes (e.g., '/plan') to collaboratively brainstorm solutions and refine ideas. Treating the AI agent like a junior engineer who benefits from clear guidance, context, and iterative feedback helps it to produce more accurate and relevant outputs, leading to superior problem-solving and feature implementation.
Why are architectural strategies like refactoring and documentation crucial for agent-driven development?
Architectural strategies like frequent refactoring, comprehensive documentation, and robust testing are paramount in agent-driven development because they create a clean, navigable codebase that AI agents can effectively understand and interact with. A well-maintained codebase, much like for human engineers, allows AI agents to contribute features more accurately and efficiently. By prioritizing readability, consistent patterns, and up-to-date documentation, developers ensure that Copilot can interpret the codebase's intent, identify opportunities for improvement, and implement changes with minimal errors, making feature delivery trivial and facilitating continuous re-architecture.
How does a 'blameless culture' apply to iteration strategies in agent-driven development?
Applying a 'blameless culture' to agent-driven development means shifting from a 'trust but verify' mindset to one that prioritizes 'blame process, not agents.' This philosophy acknowledges that AI agents, like human engineers, can make mistakes. The focus then shifts to implementing robust processes and guardrails—such as strict typing, comprehensive linters, and extensive integration and end-to-end tests—to prevent errors. When an agent does make a mistake, the response is to learn from it and introduce additional guardrails, refining the processes and prompts to ensure the same error isn't repeated, fostering a rapid and psychologically safe iteration pipeline.
What is the typical development loop when using agent-driven development?
The typical development loop in agent-driven development begins with planning a new feature collaboratively with Copilot using a '/plan' prompt, ensuring testing and documentation updates are integrated early. Next, Copilot implements the feature, often using an '/autopilot' command. Following implementation, a review loop is initiated with a Copilot Code Review agent, addressing comments iteratively. The final stage involves a human review to enforce patterns and standards. Outside this feature loop, Copilot is periodically prompted to review for missing tests, code duplication, or documentation gaps, maintaining a continuously optimized agent-driven environment.
What kind of impact did agent-driven development have on team productivity and collaboration?
The impact of agent-driven development on team productivity and collaboration was transformative, leading to an incredibly rapid iteration pipeline. In one instance, a team of five new contributors, using this methodology, created 11 new agents, four new skills, and implemented complex workflows in less than three days. This amounted to a staggering change of +28,858/-2,884 lines of code across 345 files. This dramatic increase in output highlights how agent-driven development, by automating routine tasks and providing intelligent assistance, significantly accelerates feature delivery, fosters deeper collaboration, and enables teams to achieve unprecedented levels of innovation and efficiency.

Restez informé

Recevez les dernières actualités IA dans votre boîte mail.

Partager