Code Velocity
Varnost umetne inteligence

Tovarnice umetne inteligence z ničelnim zaupanjem: Zavarovanje zaupnih delovnih obremenitev umetne inteligence s TEE-ji

·7 min branja·NVIDIA·Izvirni vir
Deli
Diagram, ki ponazarja arhitekturo ničelnega zaupanja, ki ščiti zaupne delovne obremenitve umetne inteligence v tovarnicah umetne inteligence.

Hiter napredek umetne inteligence jo je pognal iz eksperimentalnih faz v osrčje podjetniških operacij. Vendar pa ostaja pomembna ovira: velika večina kritičnih podjetniških podatkov, vključno z zelo občutljivimi bolniškimi kartotekami, lastniškimi tržnimi raziskavami in neprecenljivim znanjem, se nahaja zunaj javnega oblaka. Vključevanje teh občutljivih informacij z modeli umetne inteligence povzroča znatne pomisleke glede zasebnosti in zaupanja, kar pogosto upočasni ali popolnoma blokira sprejetje umetne inteligence.

Da bi resnično sprostili potencial umetne inteligence, podjetja gradijo "tovarnice umetne inteligence" – specializirane, visoko zmogljive infrastrukture, zasnovane za ustvarjanje inteligence v velikem obsegu. Da bi te tovarnice uspele z občutljivimi podatki in lastniškimi modeli, morajo biti zgrajene na neomajnem temelju ničelnega zaupanja. Ta paradigma narekuje, da nobeni entiteti, pa naj bo uporabnik, naprava ali aplikacija, ni implicitno zaupano. Namesto tega so vse zahteve za dostop strogo avtenticirane in avtorizirane. To se doseže z izvedbenimi okolji zaupanja (TEE), ki jih uveljavlja strojna oprema, in kriptografsko potrditvijo, kar ustvarja varnostno arhitekturo, ki odpravlja inherentno zaupanje v osnovno gostiteljsko infrastrukturo. Ta članek raziskuje celovit pristop, ki oriše referenčno arhitekturo NVIDIA za vključitev tega temelja ničelnega zaupanja v sodobne tovarnice umetne inteligence.

Dilema zaupanja v tovarnici umetne inteligence: Izziv več deležnikov

Prehod na uvajanje naprednih mejnih modelov, pogosto lastniških, na skupno infrastrukturo uvaja kompleksno, večplastno dilemo zaupanja med ključnimi deležniki v ekosistemu tovarnice umetne inteligence. To "krožno pomanjkanje zaupanja" v bistvu izhaja iz neuspeha tradicionalnega računalniškega okolja, da šifrira podatke med uporabo.

  1. Lastniki modelov proti ponudnikom infrastrukture: Lastniki modelov veliko vlagajo v razvoj lastniških modelov umetne inteligence, katerih uteži in algoritmična logika predstavljajo pomembno intelektualno lastnino. Ne morejo implicitno zaupati, da gostiteljski operacijski sistem, hipervizor ali celo root administrator ne bodo pregledali, ukradli ali izvlekli njihovih dragocenih modelov, ko so ti nameščeni na skupno infrastrukturo.
  2. Ponudniki infrastrukture proti lastnikom modelov/najemnikom: Nasprotno pa tisti, ki upravljajo in vzdržujejo strojno opremo in grozde Kubernetes – ponudniki infrastrukture – ne morejo slepo zaupati, da je delovna obremenitev lastnika modela ali najemnika benigna. Obstaja stalno tveganje zlonamerne kode, poskusov dviga privilegijev ali kršitev varnostnih meja gostitelja, vgrajenih v implementirane aplikacije umetne inteligence.
  3. Najemniki (lastniki podatkov) proti lastnikom modelov in ponudnikom infrastrukture: Lastniki podatkov, ki dobavljajo občutljive in pogosto regulirane podatke, ki poganjajo modele umetne inteligence, zahtevajo robustno zagotovilo, da njihovi podatki ostanejo zaupni. Ne morejo zaupati, da ponudnik infrastrukture ne bo pregledal njihovih podatkov med izvajanjem, niti ne morejo biti prepričani, da ponudnik modela ne bo zlorabil ali razkril podatkov med sklepanjem ali obdelavo.

To vseprisotno pomanjkanje zaupanja poudarja kritično ranljivost: v običajnem računalništvu podatki niso šifrirani, medtem ko se aktivno obdelujejo. To pušča občutljive podatke in lastniške modele izpostavljene v čisti obliki v pomnilniku in dostopne sistemskim administratorjem, kar ustvarja nesprejemljiv profil tveganja za sodobne implementacije umetne inteligence.

Zaupno računalništvo in vsebniki: Temelj zaupanja v umetno inteligenco

Zaupno računalništvo se pojavlja kot ključna rešitev za to globoko dilemo zaupanja. Temeljno spreminja varnostno pokrajino z zagotavljanjem, da podatki in modeli ostanejo kriptografsko zaščiteni skozi celoten življenjski cikel izvajanja, ne le v mirovanju ali v prenosu. To se doseže z izkoriščanjem strojno podprtih okolij za zanesljivo izvajanje (TEE-jev), ki ustvarjajo izolirane, šifrirane pomnilniške regije, kjer se lahko izvajajo občutljive izračune, ne da bi bili izpostavljeni gostiteljskemu operacijskemu sistemu ali hipervizorju.

Medtem ko zaupno računalništvo zagotavlja ključno strojno osnovo, zaupni vsebniki (CoCo) operacionalizirajo to varnostno paradigmo posebej za okolja Kubernetes. CoCo omogoča, da se podi Kubernetes izvajajo znotraj teh strojno podprtih TEE-jev, ne da bi bile potrebne kakršne koli spremembe ali prepisi kode aplikacije. Namesto da bi si delili gostiteljsko jedro, je vsak pod transparentno inkapsuliran znotraj lahkega, strojno izoliranega navideznega stroja (VM), ki ga poganja Kata Containers. Ta inovativni pristop ohranja obstoječe delovne tokove in orodja, izvorna v oblaku, hkrati pa uveljavlja stroge meje izolacije, kar povečuje varnost, ne da bi ogrozil operativno agilnost.

Za ponudnike modelov je grožnja kraje lastniških uteži modelov najpomembnejša skrb. CoCo to neposredno naslavlja z učinkovitim odstranjevanjem gostiteljskega operacijskega sistema in hipervizorja iz kritične enačbe zaupanja. Ko je model umetne inteligence nameščen znotraj zaupnega vsebnikja, ostane šifriran. Šele potem, ko strojna oprema matematično preveri celovitost in varnost enklave TEE s postopkom, znanim kot daljinska overitev, specializirana storitev Key Broker Service (KBS) sprosti potreben dešifrirni ključ. Ta ključ se nato dostavi izključno v zaščiteni pomnilnik znotraj TEE-ja, kar zagotavlja, da uteži modela nikoli niso izpostavljene v čisti obliki gostiteljskemu okolju, niti visoko privilegiranim administratorjem.

Referenčna arhitektura ničelnega zaupanja NVIDIA za varne tovarnice umetne inteligence

NVIDIA je v sodelovanju z odprtokodno skupnostjo Confidential Containers razvila celovito referenčno arhitekturo za programsko opremo CoCo. Ta načrt opredeljuje standardiziran, celovit pristop za gradnjo tovarnic umetne inteligence z ničelnim zaupanjem na infrastrukturi brez operacijskega sistema. Natančno opisuje, kako integrirati vrhunske strojne in programske komponente za varno uvajanje mejnih modelov, s čimer se zaščitijo tako njihovi občutljivi podatki kot intelektualna lastnina pred izpostavljenostjo gostiteljskemu okolju.

Glavni stebri te robustne arhitekture so:

SteberOpis
Strojni koren zaupanjaUporablja okolja za zanesljivo izvajanje (TEE) procesorja v povezavi z zaupnimi grafičnimi procesorji NVIDIA (npr. NVIDIA Hopper, NVIDIA Blackwell) za strojno pospešene, pomnilniško šifrirane delovne obremenitve umetne inteligence.
Izvajalno okolje Kata ContainersStandardne pode Kubernetes ovije v lahke, strojno izolirane navidezne stroje (UVM), kar zagotavlja močno izolacijo namesto deljenja gostiteljskega jedra.
Otrjeno mikro-gostiteljsko okoljeUporablja minimalen operacijski sistem brez distribucije z okrnjeno korensko datoteko in NVIDIA Runtime Container (NVRC) za varen init sistem, kar drastično zmanjša napadno površino navideznega stroja.
Storitev overitveKriptografsko preveri celovitost strojnega okolja pred sprostitvijo občutljivih dešifrirnih ključev modela ali skrivnosti gostitelju, pogosto vključuje storitev Key Broker Service (KBS).
Življenjski cikel zaupne delovne obremenitveOmogoča varno vlečenje šifriranih in podpisanih slik (vsebnikov, modelov, artefaktov) neposredno v šifriran pomnilnik TEE, kar preprečuje izpostavljenost v mirovanju ali v prenosu in omogoča natančne politike vmesnikov.
Izvorna integracija Kubernetes in GPU OperatorjaOmogoča upravljanje celotnega sklada z uporabo standardnih primitivov Kubernetes in NVIDIA GPU Operatorja, kar omogoča 'dvig in premik' uvajanja aplikacij umetne inteligence brez prepisovanja.

Ta arhitektura zagotavlja, da delovne obremenitve umetne inteligence izkoriščajo zmogljivosti GPU-jev NVIDIA, hkrati pa so inkapsulirane znotraj kriptografsko zavarovanih meja.

Razumevanje modela groženj CoCo in mej zaupanja v varnosti umetne inteligence

Zaupni vsebniki (CoCo) delujejo v okviru strogo definiranega modela groženj. V tem modelu se celoten infrastrukturni sloj – vključno z gostiteljskim operacijskim sistemom, hipervizorjem in potencialno samim ponudnikom oblaka – obravnava kot neločljivo nezaupanja vreden. Ta temeljna predpostavka je ključnega pomena za pristop ničelnega zaupanja.

Namesto da bi se zanašali na budnost ali integriteto skrbnikov infrastrukture za uveljavljanje varnostnih kontrol, CoCo strateško premika primarno mejo zaupanja na strojno podprta okolja za zanesljivo izvajanje (TEE-je). To pomeni, da se delovne obremenitve umetne inteligence izvajajo v šifriranih, virtualiziranih okoljih, kjer je vsebina pomnilnika za gostitelja nerazumljiva. Ključnega pomena je, da se občutljive skrivnosti, kot so ključi za dešifriranje modelov, sprostijo šele potem, ko je izvedbeno okolje kriptografsko dokazalo svojo celovitost in avtentičnost z daljinsko overitvijo.

Vendar pa je ključnega pomena razumeti natančen obseg te zaščite – kaj CoCo ščiti in kaj ostaja zunaj njegovega dosega.

Kaj CoCo ščiti

CoCo zagotavlja robustna jamstva glede zaupnosti in celovitosti med izvajanjem delovnih obremenitev umetne inteligence:

  1. Zaščita podatkov in modelov: Šifriranje pomnilnika je temeljni kamen, ki preprečuje gostiteljskemu okolju dostop do občutljivih podatkov, lastniških uteži modelov ali plačilnih obremenitev sklepanja, medtem ko se delovna obremenitev aktivno izvaja znotraj TEE-ja.
  2. Celovitost izvajanja: Daljinska overitev igra ključno vlogo z preverjanjem, da se delovna obremenitev dejansko izvaja znotraj zaupanja vrednega, nekompromitiranega okolja s pričakovanimi meritvami programske opreme, preden se sprostijo kakršne koli občutljive skrivnosti ali dešifrirni ključi modela.
  3. Varno ravnanje s slikami in shranjevanjem: Slike vsebnikov se vlečejo, preverjajo in razpakirajo neposredno v varno, šifrirano gostiteljsko okolje. To zagotavlja, da gostiteljska infrastruktura ne more pregledati ali posegati v kodo aplikacije ali dragocene artefakte modela.
  4. Zaščita pred dostopom na ravni gostitelja: Arhitektura učinkovito ščiti delovne obremenitve pred privilegiranimi dejanji gostitelja. Administratorska orodja za odpravljanje napak, pregled pomnilnika ali strganje diska s strani gostitelja ne morejo razkriti zaupnih vsebin delujoče delovne obremenitve umetne inteligence.

Česa CoCo ne ščiti

Čeprav je CoCo zelo učinkovit, določena tveganja in napadni vektorji spadajo zunaj inherentnega obsega arhitekture CoCo:

  1. Ranljivosti aplikacij: CoCo zagotavlja preverjeno in zaupno izvedbeno okolje, vendar sam po sebi ne zakrpa ali preprečuje ranljivosti znotraj kode aplikacije umetne inteligence. Če ima aplikacija napako, ki vodi do uhajanja podatkov ali napačne obdelave, CoCo tega ne more ublažiti.
  2. Napadi na razpoložljivost: Glavni poudarek CoCo je zaupnost in celovitost. Ne preprečuje neposredno napadov zanikanja storitve (DoS) ali drugih napadov na razpoložljivost, katerih cilj je motenje storitve in ne kraja podatkov. Še vedno so potrebni ukrepi, kot so redundantna infrastruktura in zaščite na omrežni ravni.
  3. Varnost omrežja: Podatki v prenosu, varnost omrežnih končnih točk in ranljivosti v omrežnih protokolih spadajo zunaj neposredne zaščite TEE-ja. Varni komunikacijski kanali (npr. TLS/SSL) in robustna segmentacija omrežja so dopolnilne zahteve. Za globlji vpogled v zavarovanje umetne inteligence razmislite o raziskovanju strategij za preprečevanje zlonamerne uporabe umetne inteligence.

Gradimo prihodnost varne umetne inteligence

Pot umetne inteligence od eksperimentiranja do produkcije zahteva spremembo paradigme na področju varnosti. Podjetja ne uvajajo več zgolj modelov; gradijo kompleksne tovarnice umetne inteligence, ki proizvajajo inteligenco v velikem obsegu. Arhitektura ničelnega zaupanja NVIDIA, ki jo poganjajo zaupni vsebniki in strojno podprti TEE-ji, zagotavlja kritičen temelj za to novo dobo. Z natančnim obravnavanjem inherentnih dilem zaupanja in zagotavljanjem robustnih kriptografskih jamstev lahko organizacije samozavestno uvajajo lastniške modele in obdelujejo občutljive podatke, s čimer pospešujejo sprejemanje umetne inteligence, ne da bi ogrozile varnost. Ta pristop ne ščiti le intelektualne lastnine in zasebnih informacij, temveč tudi spodbuja novo raven zaupanja v celotnem življenjskem ciklu razvoja in uvajanja umetne inteligence. Ker se umetna inteligenca še naprej razvija, bo vključitev tako naprednih varnostnih okvirov ključnega pomena za uresničitev njenega polnega, transformativnega potenciala. Poleg tega pa tekoče strateško sodelovanje med vodilnimi v industriji, kot sta AWS in NVIDIA, ki poglabljata strateško sodelovanje za pospeševanje umetne inteligence od pilota do produkcije, poudarja zavezanost industrije k napredku varnih in razširljivih rešitev umetne inteligence.

Pogosta vprašanja

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

Bodite na tekočem

Prejemajte najnovejše AI novice po e-pošti.

Deli