title: "AI 에이전트 보안: GitHub의 보안 코드 게임으로 에이전트 역량 강화" slug: "hack-the-ai-agent-build-agentic-ai-security-skills-with-the-github-secure-code-game" date: "2026-04-17" lang: "ko" source: "https://github.blog/security/hack-the-ai-agent-build-agentic-ai-security-skills-with-the-github-secure-code-game/" category: "AI 보안" keywords:
- 에이전트 AI 보안
- AI 보안
- GitHub 보안 코드 게임
- 사이버 보안 교육
- 보안 코딩
- 에이전트 애플리케이션을 위한 OWASP Top 10
- AI 에이전트
- 취약점 평가
- GitHub Codespaces
- 보안 교육
- 프롬프트 엔지니어링 보안
- 개발자 보안 기술 meta_description: "GitHub 보안 코드 게임 시즌 4를 통해 필수적인 에이전트 AI 보안 기술을 익혀보세요. 이 대화형 무료 교육에서 ProdBot과 같은 자율 AI 에이전트의 취약점을 식별하고 수정하는 방법을 배웁니다." image: "/images/articles/hack-the-ai-agent-build-agentic-ai-security-skills-with-the-github-secure-code-game.png" image_alt: "GitHub 보안 코드 게임 내 에이전트 AI 보안 훈련을 나타내는, 해커 시점의 AI 에이전트 코드를 스타일화한 이미지." quality_score: 94 content_score: 93 seo_score: 95 companies:
- GitHub schema_type: "NewsArticle" reading_time: 7 faq:
- question: "보안 코드 게임 시즌 4를 플레이하는 데 AI 또는 코딩 경험이 필요한가요?" answer: '아니요, GitHub 보안 코드 게임 시즌 4에 참여하는 데는 사전 AI 또는 코딩 경험이 필요하지 않습니다. 전체 경험은 CLI(명령줄 인터페이스) 내에서 자연어 상호 작용을 통해 접근 가능하도록 설계되었습니다. 플레이어는 일반 영어 또는 원하는 언어를 사용하여 ProdBot에게 프롬프트를 보내고, 봇은 그에 따라 응답합니다. 주요 요구 사항은 호기심과 실험하려는 의지입니다. 이러한 접근 방식을 통해 개발자, 보안 전문가, 심지어 AI 또는 프로그래밍에 익숙하지 않은 사람들도 복잡한 구문이나 고급 AI 개념에 얽매이지 않고 중요한 보안 직관을 개발하고 공격 패턴을 이해하는 데 집중할 수 있습니다. 이 게임은 직관적인 명령을 통해 취약점을 탐색하여 공격자처럼 생각하는 방법을 가르치므로 광범위한 청중에게 매력적이고 효과적인 학습 도구가 됩니다.'
- question: "시즌 4를 시작하기 전에 이전 시즌을 완료해야 하나요?" answer: '아니요, 이전 시즌의 보안 코드 게임을 완료하는 것이 시즌 4 플레이의 필수 조건은 아닙니다. 각 시즌은 자체적으로 완성되도록 설계되어 플레이어가 이전 콘텐츠에 대한 사전 지식 없이 최신 챌린지에 바로 뛰어들 수 있습니다. 그러나 시즌 3는 특히 LLM(대규모 언어 모델) 보안에 중점을 두었으며, 악성 프롬프트 작성 및 방어와 같은 주제를 다루었습니다. 이러한 일반 AI 보안의 기반은 에이전트 시스템이 종종 LLM을 통합하기 때문에 에이전트 AI 취약점의 더 넓은 맥락을 이해하는 데 매우 유익할 수 있습니다. 필수는 아니지만, AI 보안에 대한 포괄적인 이해를 구축하는 데 관심 있는 플레이어는 시즌 3가 도움이 되는 (선택 사항이지만) 준비 경험이 될 수 있으며, 일반적으로 완료하는 데 약 1.5시간이 걸립니다.'
- question: "시즌 4를 완료하는 데 필요한 예상 시간은 얼마나 되나요?" answer: '보안 코드 게임 시즌 4를 완료하는 데 예상되는 시간은 약 2시간입니다. 그러나 이 시간은 개인의 플레이 스타일과 탐색 깊이에 따라 크게 달라질 수 있습니다. 일부 플레이어는 레벨을 더 빠르게 진행할 수 있지만, 다른 플레이어는 각 챌린지를 더 깊이 파고들어 취약점을 악용하고 기본 메커니즘을 이해하기 위해 여러 접근 방식을 실험할 수 있습니다. 이 게임은 철저한 탐색과 "해커 사고방식"을 장려하며, 다양한 명령을 시도하고 ProdBot의 기능 한계를 밀어붙이는 것이 학습 과정의 일부입니다. 따라서 더 광범위한 실험에 참여하는 플레이어는 더 많은 시간을 할애하여 궁극적으로 에이전트 AI 보안에 대한 더 풍부한 이해를 얻을 수 있습니다.'
- question: "GitHub 보안 코드 게임 시즌 4 참여는 무료인가요?" answer: '네, 보안 코드 게임 시즌 4는 완전히 무료로 플레이할 수 있습니다. GitHub의 오픈 소스 이니셔티브로서, 접근 가능하고 매력적인 사이버 보안 교육을 제공하도록 설계되었습니다. 이 게임은 GitHub Codespaces 내에서 완전히 실행되며, Codespaces는 월 최대 60시간의 무료 사용을 제공하는 클라우드 기반 개발 환경입니다. 이는 플레이어가 로컬에 소프트웨어를 설치하거나, 복잡한 개발 환경을 구성하거나, 무료 Codespaces 등급 내에 머무는 한 플랫폼 자체와 관련된 어떠한 비용도 발생시킬 필요가 없음을 의미합니다. 이러한 설정은 GitHub 계정이 있는 누구든지 재정적 장벽 없이 즉시 에이전트 AI 보안 기술을 연마하기 시작하는 것을 놀라울 정도로 쉽고 비용 효율적으로 만듭니다.'
- question: "시즌 4를 플레이할 때 속도 제한이 있나요? 있다면 게임 플레이에 어떤 영향을 미치나요?" answer: '네, 보안 코드 게임 시즌 4는 AI 기능을 위해 GitHub Models를 활용하며, 이는 특정 속도 제한의 적용을 받습니다. 이러한 제한은 기본 AI 인프라의 책임 있는 사용을 보장하고 남용을 방지하기 위해 마련되었습니다. 플레이어가 게임 플레이 중 속도 제한에 부딪히면 ProdBot은 허용된 요청 수를 일시적으로 초과했음을 알립니다. 이러한 경우 권장 조치는 단순히 속도 제한이 재설정될 때까지 기다리는 것이며, 그 후 게임 플레이는 중단된 지점부터 원활하게 재개될 수 있습니다. GitHub는 플레이어가 이러한 운영 매개변수를 이해하고 게임 플레이를 계획하는 데 도움이 되도록 속도 제한에 대한 세부 정보를 포함하여 GitHub Models의 책임 있는 사용에 대한 문서를 제공합니다. 이는 모든 참가자에게 공정하고 지속 가능한 환경을 보장합니다.'
## 에이전트 AI 보안: GitHub의 보안 코드 게임으로 방어력을 강화하세요
인공지능의 급속한 발전은 우리의 디지털 환경을 계속해서 변화시키고 있습니다. 최근에는 오픈 소스 개인 AI 비서인 OpenClaw와 같은 도구들이 사람들의 상상력을 사로잡으며, 받은 편지함을 정리하고, 일정을 관리하고, 웹을 탐색하며, 심지어 자체 플러그인을 작성하는 등의 기능을 약속했습니다. 이러한 자율 AI 에이전트의 잠재력은 분명히 혁신적이지만, 동시에 중요한 질문을 제기합니다: 이 힘이 악의적인 손에 넘어간다면 어떻게 될까요? 에이전트가 권한 없는 파일에 접근하도록 속여지거나, 오염된 웹 콘텐츠를 처리하거나, 다중 에이전트 워크플로우 내에서 손상된 데이터를 맹목적으로 신뢰한다면 어떻게 될까요?
이러한 시급한 보안 문제는 GitHub가 호평받는 보안 코드 게임 시즌 4를 통해 해결하고자 하는 바입니다. 보안 교육을 매력적이고 접근 가능하게 만들겠다는 사명 위에 구축된 이 최신 버전은 개발자와 보안 애호가에게 "AI 에이전트를 해킹"하도록 도전하여 필수적인 에이전트 AI 보안 기술을 구축하게 합니다.
## 보안 코드 게임: 사이버 보안 기술을 위한 진화하는 플랫폼
2023년 3월에 시작된 이래로, [보안 코드 게임](https://securitylab.github.com/secure-code-game/)은 플레이어가 의도적으로 취약한 코드를 악용하고 수정하는 독특한 에디터 내 학습 경험을 제공해 왔습니다. '보안 교육을 즐겁게 만든다'는 핵심 철학은 위협 환경과 함께 진화하며 변함없이 유지되었습니다.
시즌 1은 개발자들에게 기본적인 보안 코딩 관행을 소개하며, 취약점을 식별하고 패치하는 실습 접근 방식을 제공했습니다. 시즌 2는 이러한 챌린지를 다중 스택 환경으로 확장하여 JavaScript, Python, Go, GitHub Actions와 같은 인기 언어 전반에 걸쳐 커뮤니티 기여를 장려했습니다. AI의 중요성이 커지고 있음을 인식하여 시즌 3는 대규모 언어 모델(LLM) 보안으로 전환하여 플레이어에게 악성 프롬프트를 작성하고 방어하는 방법을 가르쳤습니다. **10,000명 이상의 개발자**가 이 플랫폼을 활용하여 보안 통찰력을 연마하고, 기술이 발전함에 따라 새로운 도전에 적응했습니다.
이제 AI 코딩 보조가 주류가 되고 자율 AI 에이전트가 연구 프로토타입에서 생산 단계로 이동함에 따라, 시즌 4는 다음 과제, 즉 에이전트 AI 시스템의 보안을 다룹니다. 자율 웹 브라우징, API 호출 및 다중 에이전트 조정을 수행할 수 있는 이러한 시스템은 특화된 이해와 방어 전략을 요구하는 새로운 유형의 공격 벡터를 제시합니다. AI 보안의 기본을 더 깊이 이해하고자 하는 분들은 [에이전트 AI 운영화: 1부 - 이해관계자 가이드](/ko/operationalizing-agentic-ai-part-1-a-stakeholders-guide)와 같은 자료를 탐색하여 귀중한 맥락을 얻을 수 있습니다.
## 에이전트 AI 보안이 중요한 필수 요소인 이유
전용 에이전트 AI 보안 교육의 시기는 우연이 아닙니다. 자율 AI 에이전트의 채택이 가속화되고 있지만, 보안 준비는 심각하게 뒤처져 있습니다. 최근 산업 보고서는 이러한 격차가 커지고 있음을 강조합니다:
* [2026년 에이전트 애플리케이션을 위한 OWASP Top 10](https://genai.owasp.org/resource/owasp-top-10-for-agentic-applications-for-2026/)은 100명 이상의 보안 연구원들의 통찰력을 바탕으로 개발되었으며, 현재 에이전트 목표 하이재킹, 도구 오용, 신원 남용, 메모리 오염과 같은 위협을 주요 우려 사항으로 나열하고 있습니다.
* Dark Reading의 설문조사에 따르면 **사이버 보안 전문가의 48%**가 2026년 말까지 에이전트 AI가 주요 공격 벡터가 될 것으로 예상했습니다.
* Cisco의 'AI 보안 2026년 현황' 보고서는 놀랍게도 조직의 83%가 에이전트 AI 기능을 배포할 계획이지만, 겨우 29%만이 이를 안전하게 수행할 준비가 되어 있다고 느낀다는 사실을 발견했습니다.
이러한 극명한 격차는 취약점을 위한 비옥한 토양을 만듭니다. 이 격차를 해소하고 시스템을 강화하는 가장 효과적인 방법은 공격자처럼 생각하는 법을 배우는 것입니다. 이는 보안 코드 게임 경험 전체를 뒷받침하는 원칙입니다. 이러한 시스템을 악용하는 방법을 이해하는 것이 강력한 방어를 구축하는 첫 번째 단계입니다. AI 시스템 보안에 대한 추가 통찰력은 [프롬프트 인젝션에 저항하는 에이전트 설계](/ko/designing-agents-to-resist-prompt-injection)에 대한 논의에서 찾을 수 있습니다.
## ProdBot 소개: 의도적으로 취약하게 만들어진 AI 비서
보안 코드 게임 시즌 4는 플레이어들이 **ProdBot**을 목표로 하는 공격자의 입장이 되게 합니다. ProdBot은 터미널용으로 의도적으로 취약하게 만들어진 생산성 중심의 AI 비서입니다. OpenClaw 및 [GitHub Copilot CLI](https://github.com/features/copilot/cli)와 같은 실제 도구에서 영감을 받은 ProdBot은 자연어를 bash 명령으로 번역하고, 시뮬레이션된 웹을 탐색하며, MCP(Model Context Protocol) 서버와 상호 작용하고, 승인된 기술을 실행하고, 영구 메모리를 유지하며, 복잡한 다중 에이전트 워크플로우를 조율합니다.
다섯 가지 진행 레벨에 걸친 플레이어의 임무는 겉보기에는 간단합니다. 자연어 프롬프트를 사용하여 ProdBot이 절대 노출해서는 안 되는 비밀, 즉 `password.txt` 파일의 내용을 공개하도록 강요하는 것입니다. 이 파일을 성공적으로 검색하는 것은 보안 취약점의 발견 및 악용을 의미합니다. 사전 AI 또는 코딩 경험은 필요하지 않으며, 모든 상호 작용은 CLI 내에서 자연어를 통해 이루어지므로 호기심과 실험하려는 의지만 있으면 됩니다.
## 점진적 취약점: 에이전트 공격 표면 마스터하기
보안 코드 게임 시즌 4는 AI 기반 도구의 실제 진화를 반영하도록 구성되어 있습니다. 5개의 각 레벨은 ProdBot에 새로운 기능을 도입하며, 동시에 플레이어가 발견하고 악용할 새로운 공격 표면을 노출합니다. 이러한 점진적인 복잡성은 AI 에이전트가 더 많은 자율성과 접근 권한을 얻으면서 취약점이 어떻게 축적되고 변화하는지 플레이어가 이해하도록 돕습니다.
다음은 ProdBot의 진화와 해당 보안 문제에 대한 분석입니다:
| 레벨 | ProdBot의 새로운 기능 | 공격 표면 및 챌린지 |
| :---- | :----------------------- | :--------------------------- |
| **1** | 샌드박스화된 작업 공간에서 Bash 명령 실행. | 샌드박스 환경에서 벗어나기. |
| **2** | 시뮬레이션된 인터넷에 웹 접근. | 신뢰할 수 없는 웹 콘텐츠로 인해 발생하는 취약점 악용. |
| **3** | 외부 MCP 서버(주식 시세, 웹 브라우징, 클라우드 백업) 연결. | 도구 통합 및 외부 서비스 상호 작용의 약점 식별. |
| **4** | 조직 승인 기술 및 영구 메모리. | 신뢰 계층 우회, 사전 구축된 플러그인 악용 또는 메모리 조작. |
| **5** | 6개의 전문 에이전트, 3개의 MCP 서버, 3개의 기술 및 시뮬레이션된 오픈 소스 프로젝트 웹 오케스트레이션. | 복잡한 다중 에이전트 환경에서 에이전트 샌드박싱 및 데이터 사전 검증 주장을 테스트. |
이러한 진행은 에이전트 AI 보안 위험에 대한 직관적인 이해를 구축하도록 설계되었습니다. 시즌 4에서 발견된 공격 패턴은 이론적인 것이 아닙니다. 이는 자율 AI 시스템이 프로덕션 환경에 배포될 때 보안 팀이 현재 직면하고 있는 실제 위협을 나타냅니다. 대표적인 예는 CVE-2026-25253 (CVSS 8.8 – 높음)으로, "ClawBleed"라고 불리는 원클릭 RCE(원격 코드 실행) 취약점으로, 공격자가 악성 링크를 통해 인증 토큰을 훔쳐 OpenClaw 인스턴스를 완전히 제어할 수 있도록 했습니다.
궁극적인 목표는 단순히 특정 익스플로잇을 발견하는 것을 넘어섭니다. 에이전트 아키텍처를 검토하거나 도구 통합을 감사하거나 팀의 AI 비서에 대한 적절한 자율성 수준을 결정할 때 이러한 위험한 패턴을 인식하는 능력, 즉 본질적인 보안 직관을 기르는 것입니다. 이는 [Copilot 응용 과학의 에이전트 중심 개발](/ko/agent-driven-development-in-copilot-applied-science)에 대한 논의에서 더 자세히 설명된 주제인, 더 안전한 에이전트 워크플로우를 구축하는 방법을 이해하는 것입니다.
## 지금 시작하여 AI 보안 직관을 날카롭게 다듬으세요
보안 코드 게임의 가장 매력적인 측면 중 하나는 접근성입니다. 전체 경험은 [GitHub Codespaces](https://github.com/features/codespaces) 내에서 실행되므로 로컬 설치나 복잡한 구성이 필요 없습니다. Codespaces에서 제공하는 월 최대 60시간의 무료 사용으로 플레이어는 2분 이내에 ProdBot의 터미널로 완전히 무료로 들어갈 수 있습니다. 각 시즌은 독립적으로 구성되어 있어 플레이어가 이전 시즌을 완료하지 않고도 시즌 4에 바로 뛰어들 수 있지만, 시즌 3는 일반 AI 보안에 대한 유용한 기반을 제공합니다.
필요한 것은 해커 사고방식과 실험하려는 의지뿐입니다. AI의 미래는 점점 더 에이전트화되고 있으며, 그 보안 함의를 이해하는 것은 더 이상 선택 사항이 아닙니다.
**AI 에이전트를 해킹하고 에이전트 AI 보안 기술을 구축할 준비가 되셨나요? [지금 시즌 4를 시작하세요 >](https://securitylab.github.com/secure-code-game/)**
*GitHub의 스태프 제품 보안 엔지니어 Rahul Zhade와 시즌 3 개발자 Bartosz Gałek에게 시즌 4 테스트 및 개선에 대한 귀중한 기여에 특별히 감사드립니다.*
자주 묻는 질문
Do I need AI or coding experience to play Season 4 of the Secure Code Game?
No, prior AI or coding experience is not necessary to participate in Season 4 of the GitHub Secure Code Game. The entire experience is designed to be accessible through natural language interactions within a command-line interface (CLI). Players simply use plain English, or any preferred language, to prompt ProdBot, and the bot responds accordingly. The primary requirement is curiosity and a willingness to experiment. This approach allows developers, security professionals, and even those new to AI or programming to focus on developing crucial security instincts and understanding attack patterns, rather than getting bogged down in complex syntax or advanced AI concepts. The game teaches you to think like an attacker by exploring vulnerabilities through intuitive commands, making it an an engaging and effective learning tool for a broad audience.
Is it mandatory to complete previous seasons before diving into Season 4?
No, completing the previous seasons of the Secure Code Game is not a prerequisite for playing Season 4. Each season is designed to be self-contained, allowing players to jump directly into the latest challenges without prior knowledge of earlier content. However, it's worth noting that Season 3 specifically focused on Large Language Model (LLM) security, covering topics like crafting malicious prompts and defending against them. This foundation in general AI security can be quite beneficial for understanding the broader context of agentic AI vulnerabilities, as agentic systems often incorporate LLMs. While not required, players interested in building a comprehensive understanding of AI security might find Season 3 to be a helpful, though optional, preparatory experience, typically taking around 1.5 hours to complete.
What is the approximate duration required to complete Season 4?
The estimated time to complete Season 4 of the Secure Code Game is approximately two hours. However, this duration can vary significantly based on individual playstyle and depth of exploration. Some players might progress through the levels more quickly, while others may choose to delve deeper into each challenge, experimenting with multiple approaches to exploit vulnerabilities and understand the underlying mechanisms. The game encourages thorough exploration and a 'hacker mindset,' where trying different commands and pushing the boundaries of ProdBot's capabilities is part of the learning process. Therefore, players who engage in more extensive experimentation might spend more time, ultimately gaining a richer understanding of agentic AI security.
Is participation in the GitHub Secure Code Game Season 4 free of charge?
Yes, Season 4 of the Secure Code Game is completely free to play. It is an open-source initiative by GitHub, designed to provide accessible and engaging cybersecurity training. The game runs entirely within GitHub Codespaces, a cloud-based development environment that offers up to 60 hours of free usage per month. This means there's no need for players to install any software locally, configure complex development environments, or incur any costs related to the platform itself, as long as they stay within the free Codespaces tier. This setup makes it incredibly easy and cost-effective for anyone with a GitHub account to jump in and start honing their agentic AI security skills immediately, without financial barriers.
Are there any rate limits when playing Season 4, and how do they impact gameplay?
Yes, Season 4 of the Secure Code Game utilizes GitHub Models for its AI capabilities, which are subject to specific rate limits. These limits are in place to ensure responsible use of the underlying AI infrastructure and to prevent abuse. If a player encounters a rate limit during gameplay, ProdBot will inform them that they have temporarily exceeded the allowed number of requests. In such cases, the recommended action is to simply wait for the rate limit to reset, after which gameplay can be seamlessly resumed from where it left off. GitHub provides documentation on the responsible use of GitHub Models, including details on rate limits, to help players understand these operational parameters and plan their gameplay accordingly. This ensures a fair and sustainable environment for all participants.
최신 소식 받기
최신 AI 뉴스를 이메일로 받아보세요.
