Code Velocity
AI-sikkerhet

AI-agent-sikkerhet: GitHubs Secure Code Game skjerper agentiske ferdigheter

·7 min lesing·GitHub·Opprinnelig kilde
Del
Et stilisert bilde som viser en hackers visning av en AI-agents kode, som representerer agentisk AI-sikkerhetstrening i GitHub Secure Code Game.

Agentisk AI-sikkerhet: Forbedre forsvaret ditt med GitHubs Secure Code Game

Den raske utviklingen av kunstig intelligens fortsetter å endre vårt digitale landskap. Nylig har verktøy som OpenClaw, en åpen kildekode personlig AI-assistent, fanget fantasien, og lover å rydde innbokser, administrere kalendere, surfe på nettet og til og med skrive sine egne plugins. Mens potensialet for slike autonome AI-agenter unektelig er transformativt, reiser det også et kritisk spørsmål: hva skjer når denne kraften faller i ondsinnede hender? Hva om en agent blir lurt til å få tilgang til uautoriserte filer, behandler forgiftet nettinnhold, eller blindt stoler på korrupte data i en arbeidsflyt med flere agenter?

Disse presserende sikkerhetsbekymringene er nettopp det GitHub ønsker å ta tak i med sesong 4 av sitt anerkjente Secure Code Game. Ved å bygge videre på sitt oppdrag om å gjøre sikkerhetstrening engasjerende og tilgjengelig, utfordrer denne nyeste iterasjonen utviklere og sikkerhetsentusiaster til å "hacke AI-agenten", og dermed bygge vitale agentiske AI-sikkerhetsferdigheter.

The Secure Code Game: En utviklende plattform for cybersikkerhetsferdigheter

Siden starten i mars 2023 har Secure Code Game tilbudt en unik, redigeringsbasert læringsopplevelse der spillere utnytter og deretter fikser med vilje sårbart kode. Kjernefilosofien – å gjøre sikkerhetstrening morsom – har forblitt konstant, og utvikler seg i takt med trusselbildet.

Sesong 1 introduserte utviklere for grunnleggende sikker kodingspraksis, og tilbød en praktisk tilnærming til å identifisere og rette sårbarheter. Sesong 2 utvidet disse utfordringene til å omfatte miljøer med flere teknologier, og fremmet fellesskapets bidrag på tvers av populære språk som JavaScript, Python, Go og GitHub Actions. Med tanke på den økende fremtredenen av AI, fokuserte sesong 3 på sikkerhet for store språkmodeller (LLM), og lærte spillere hvordan de kunne lage og forsvare seg mot ondsinnede prompter. Over 10 000 utviklere har brukt denne plattformen til å skjerpe sin sikkerhetskompetanse, og tilpasser seg nye utfordringer etter hvert som teknologien utvikler seg.

Nå, med AI-koding-assistenter som blir mainstream og autonome AI-agenter som beveger seg fra forskningsprototyper til produksjon, tar sesong 4 fatt på den neste grensen: sikkerheten til agentiske AI-systemer. Disse systemene, som er i stand til autonom nettlesing, API-kall og koordinering av flere agenter, presenterer en ny klasse angrepsvektorer som krever spesialisert forståelse og forsvarsstrategier. For de som ønsker å fordype seg i grunnleggende AI-sikkerhet, kan det å utforske ressurser som Operasjonalisering av agentisk AI: Del 1 - En interessents guide gi verdifull kontekst.

Hvorfor agentisk AI-sikkerhet er et kritisk imperativ

Tidspunktet for en dedikert trening i agentisk AI-sikkerhet er ingen tilfeldighet. Innføringen av autonome AI-agenter akselererer, men sikkerhetsberedskapen henger kritisk etter. Nylige bransjerapporter fremhever dette voksende gapet:

  • OWASP Top 10 for Agentic Applications 2026, utviklet med innsikt fra over 100 sikkerhetsforskere, lister nå opp trusler som agentmålkapring, misbruk av verktøy, identitetsmisbruk og minneforgiftning som toppbekymringer.
  • En undersøkelse fra Dark Reading avslørte at 48 % av cybersikkerhetsprofesjonelle forventer at agentisk AI vil bli den primære angrepsvektoren innen utgangen av 2026.
  • Ciscos State of AI Security 2026-rapport fant alarmerende nok at mens 83 % av organisasjonene planlegger å distribuere agentiske AI-funksjoner, føler bare 29 % seg forberedt på å gjøre det på en sikker måte.

Denne skarpe ulikheten skaper grobunn for sårbarheter. Den mest effektive måten å bygge bro over dette gapet og herde systemene på er å lære å tenke som en angriper – et prinsipp som ligger til grunn for hele Secure Code Game-opplevelsen. Å forstå hvordan man utnytter disse systemene er det første skrittet mot å bygge robuste forsvar. Ytterligere innsikt i sikring av AI-systemer kan finnes i diskusjoner rundt Utforming av agenter for å motstå promptinjeksjon.

Vi presenterer ProdBot: Din bevisst sårbare AI-assistent

Sesong 4 av Secure Code Game plasserer spillere i angriperens sko, rettet mot ProdBot, en bevisst sårbar, produktivitetsfokusert AI-assistent for terminalen din. Inspirert av virkelige verktøy som OpenClaw og GitHub Copilot CLI, oversetter ProdBot naturlig språk til bash-kommandoer, navigerer et simulert nett, interagerer med MCP-servere (Model Context Protocol), utfører godkjente ferdigheter, opprettholder vedvarende minne og orkestrerer komplekse fleragent-arbeidsflyter.

Spillerens oppdrag på tvers av fem progressive nivåer er bedragersk enkelt: bruk naturlige språk-prompter for å tvinge ProdBot til å avsløre en hemmelighet den aldri skulle eksponere – spesifikt innholdet i password.txt. Vellykket gjenfinning av denne filen indikerer oppdagelse og utnyttelse av en sikkerhetssårbarhet. Ingen tidligere AI- eller kodeerfaring er nødvendig; kun nysgjerrighet og vilje til å eksperimentere trengs, da alle interaksjoner skjer gjennom naturlig språk innenfor CLI-en.

Progressive sårbarheter: Mestring av angrepsflaten for agentiske systemer

Secure Code Game Sesong 4 er strukturert for å gjenspeile den virkelige utviklingen av AI-drevne verktøy. Hvert av de fem nivåene introduserer nye funksjoner til ProdBot, samtidig som nye angrepsflater eksponeres som spillere kan oppdage og utnytte. Denne inkrementelle kompleksiteten hjelper spillere med å forstå hvordan sårbarheter akkumuleres og endres når AI-agenter får mer autonomi og tilgang.

Her er en oversikt over ProdBots utvikling og de tilhørende sikkerhetsutfordringene:

NivåProdBots nye funksjonAngrepsflate & utfordring
1Bash-kommando utførelse i et sandkasse-miljø.Bryt ut av sandkasse-miljøet.
2Nett-tilgang til et simulert internett.Utnytt sårbarheter introdusert av upålitelig nettinnhold.
3Kobling til eksterne MCP-servere (aksjekurser, nettlesing, sky-backup).Identifiser svakheter i verktøyintegrasjon og ekstern tjenesteinteraksjon.
4Org-godkjente ferdigheter og vedvarende minne.Omgå tillitslag, utnytt forhåndsbygde plugins, eller manipuler minne.
5Orkestrering av seks spesialiserte agenter, tre MCP-servere, tre ferdigheter og et simulert åpen kildekode-prosjektnett.Test påstander om agentsandboxing og dataprevalidering i et komplekst fleragentmiljø.

Denne progresjonen er designet for å bygge en intuitiv forståelse av sikkerhetsrisikoer for agentisk AI. Angrepsmønstrene som avdekkes i sesong 4 er ikke teoretiske; de representerer de virkelige truslene som sikkerhetsteam for tiden står overfor når autonome AI-systemer distribueres i produksjonsmiljøer. Et godt eksempel er CVE-2026-25253 (CVSS 8.8 – Høy), kalt "ClawBleed", en ett-klikks Remote Code Execution (RCE)-sårbarhet som tillot angripere å stjele autentiseringstokener via en ondsinnet lenke, og få full kontroll over en OpenClaw-instans.

Det ultimate målet strekker seg utover bare å oppdage en spesifikk utnyttelse. Det handler om å dyrke et iboende sikkerhetsinstinkt – evnen til å gjenkjenne disse farlige mønstrene enten man gjennomgår en agents arkitektur, reviderer verktøyintegrasjoner eller bestemmer passende autonominivå for en AI-assistent i teamet ditt. Det handler om å forstå hvordan man bygger sikrere agentiske arbeidsflyter, et tema som ytterligere blir utdypet i diskusjoner rundt Agentdrevet utvikling i Copilot Applied Science.

Kom i gang og skjerp dine AI-sikkerhetsinstinkter i dag

En av de mest tiltalende aspektene ved Secure Code Game er tilgjengeligheten. Hele opplevelsen kjører innenfor GitHub Codespaces, noe som eliminerer behovet for lokale installasjoner eller komplekse konfigurasjoner. Med opptil 60 timer gratis bruk per måned levert av Codespaces, kan spillere dykke inn i ProdBots terminal på under to minutter, helt gratis. Hver sesong er selvstendig, slik at spillere kan hoppe direkte inn i sesong 4 uten å ha fullført de tidligere, selv om sesong 3 tilbyr et nyttig grunnlag i generell AI-sikkerhet.

Alt du trenger er en hacker-tankegang og vilje til å eksperimentere. Fremtiden for AI er i økende grad agentisk, og å forstå sikkerhetsimplikasjonene er ikke lenger valgfritt.

Klar til å hacke AI-agenten og bygge dine agentiske AI-sikkerhetsferdigheter? Start sesong 4 nå >

Spesiell takk til Rahul Zhade, Staff Product Security Engineer hos GitHub, og Bartosz Gałek, skaperen av sesong 3, for deres uvurderlige bidrag til testing og forbedring av sesong 4.

Ofte stilte spørsmål

Do I need AI or coding experience to play Season 4 of the Secure Code Game?
No, prior AI or coding experience is not necessary to participate in Season 4 of the GitHub Secure Code Game. The entire experience is designed to be accessible through natural language interactions within a command-line interface (CLI). Players simply use plain English, or any preferred language, to prompt ProdBot, and the bot responds accordingly. The primary requirement is curiosity and a willingness to experiment. This approach allows developers, security professionals, and even those new to AI or programming to focus on developing crucial security instincts and understanding attack patterns, rather than getting bogged down in complex syntax or advanced AI concepts. The game teaches you to think like an attacker by exploring vulnerabilities through intuitive commands, making it an an engaging and effective learning tool for a broad audience.
Is it mandatory to complete previous seasons before diving into Season 4?
No, completing the previous seasons of the Secure Code Game is not a prerequisite for playing Season 4. Each season is designed to be self-contained, allowing players to jump directly into the latest challenges without prior knowledge of earlier content. However, it's worth noting that Season 3 specifically focused on Large Language Model (LLM) security, covering topics like crafting malicious prompts and defending against them. This foundation in general AI security can be quite beneficial for understanding the broader context of agentic AI vulnerabilities, as agentic systems often incorporate LLMs. While not required, players interested in building a comprehensive understanding of AI security might find Season 3 to be a helpful, though optional, preparatory experience, typically taking around 1.5 hours to complete.
What is the approximate duration required to complete Season 4?
The estimated time to complete Season 4 of the Secure Code Game is approximately two hours. However, this duration can vary significantly based on individual playstyle and depth of exploration. Some players might progress through the levels more quickly, while others may choose to delve deeper into each challenge, experimenting with multiple approaches to exploit vulnerabilities and understand the underlying mechanisms. The game encourages thorough exploration and a 'hacker mindset,' where trying different commands and pushing the boundaries of ProdBot's capabilities is part of the learning process. Therefore, players who engage in more extensive experimentation might spend more time, ultimately gaining a richer understanding of agentic AI security.
Is participation in the GitHub Secure Code Game Season 4 free of charge?
Yes, Season 4 of the Secure Code Game is completely free to play. It is an open-source initiative by GitHub, designed to provide accessible and engaging cybersecurity training. The game runs entirely within GitHub Codespaces, a cloud-based development environment that offers up to 60 hours of free usage per month. This means there's no need for players to install any software locally, configure complex development environments, or incur any costs related to the platform itself, as long as they stay within the free Codespaces tier. This setup makes it incredibly easy and cost-effective for anyone with a GitHub account to jump in and start honing their agentic AI security skills immediately, without financial barriers.
Are there any rate limits when playing Season 4, and how do they impact gameplay?
Yes, Season 4 of the Secure Code Game utilizes GitHub Models for its AI capabilities, which are subject to specific rate limits. These limits are in place to ensure responsible use of the underlying AI infrastructure and to prevent abuse. If a player encounters a rate limit during gameplay, ProdBot will inform them that they have temporarily exceeded the allowed number of requests. In such cases, the recommended action is to simply wait for the rate limit to reset, after which gameplay can be seamlessly resumed from where it left off. GitHub provides documentation on the responsible use of GitHub Models, including details on rate limits, to help players understand these operational parameters and plan their gameplay accordingly. This ensures a fair and sustainable environment for all participants.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del