Code Velocity
AI Turvalisus

Nullus-usaldus AI vabrikud: Konfidentsiaalsete AI töökoormuste turvamine TEEdega

·7 min lugemist·NVIDIA·Algallikas
Jaga
Diagramm, mis illustreerib nullus-usaldus arhitektuuri konfidentsiaalsete AI töökoormuste kaitsmisel AI vabrikutes.

AI kiire areng on viinud selle eksperimentaalsetest etappidest ettevõtete tegevuse südamesse. Kuid oluline takistus jääb: valdav enamus kriitilistest ettevõtte andmetest, sealhulgas ülitundlikud patsiendiandmed, patenteeritud turu-uuringud ja hindamatu pärandteadmised, asub väljaspool avalikku pilve. Selle tundliku teabe integreerimine AI mudelitega toob kaasa olulisi privaatsus- ja usaldusprobleeme, mis sageli aeglustavad või täielikult takistavad AI kasutuselevõttu.

AI potentsiaali tõeliseks avamiseks ehitavad ettevõtted "AI vabrikuid" – spetsialiseeritud, suure jõudlusega infrastruktuure, mis on loodud luureandmete genereerimiseks suures ulatuses. Et need vabrikud saaksid tundlike andmete ja patenteeritud mudelitega edukalt toimida, peavad need olema ehitatud vankumatule nullus-usaldus põhimõttele. See paradigma näeb ette, et ühtegi üksust, olgu selleks kasutaja, seade või rakendus, ei usaldata vaikimisi. Selle asemel kontrollitakse ja autoriseeritakse kõik juurdepääsutaotlused rangelt. See saavutatakse riistvaraliselt tagatud Usaldusväärsete Täitmiskeskkondade (TEEde) ja krüptograafilise atesteerimise abil, luues turvaarhitektuuri, mis välistab omase usalduse alusvõõrustaja infrastruktuuri vastu. See artikkel uurib täielikku lähenemist, kirjeldades NVIDIA võrdlusarhitektuuri selle nullus-usaldus aluse integreerimiseks kaasaegsetesse AI vabrikutesse.

AI vabriku usaldusdilemma: mitme sidusrühma väljakutse

Nihkumine arenenud piirimudelite, sageli patenteeritud mudelite, juurutamise suunas jagatud infrastruktuuris toob kaasa keerulise, mitmetahulise usaldusdilemma AI vabriku ökosüsteemi peamiste sidusrühmade vahel. See "ringlev usalduse puudumine" tuleneb põhimõtteliselt traditsioonilise arvutikeskkonna suutmatusest andmeid kasutamise ajal krüpteerida.

  1. Mudeliomanikud vs. Infrastruktuuri pakkujad: Mudeliomanikud investeerivad palju patenteeritud AI mudelite arendamisse, mille kaalud ja algoritmiline loogika moodustavad märkimisväärse intellektuaalomandi. Nad ei saa vaikimisi usaldada, et võõrustaja operatsioonisüsteem, hüperviisor või isegi root-administraator ei uuri, varasta ega eralda nende väärtuslikke mudeleid jagatud infrastruktuuris juurutamisel.
  2. Infrastruktuuri pakkujad vs. Mudeliomanikud/Üürnikud: Vastupidi, need, kes haldavad ja opereerivad riistvara ja Kubernetes klastreid – infrastruktuuri pakkujad – ei saa pimesi usaldada, et mudeliomaniku või üürniku töökoormus on healoomuline. On pidev oht pahatahtlikule koodile, püüdlustele privileegide eskaleerimiseks või võõrustaja turvapiiride rikkumiseks, mis on sisse ehitatud juurutatud AI rakendustesse.
  3. Üürnikud (andmeomanikud) vs. Mudeliomanikud ja Infrastruktuuri pakkujad: Andmeomanikud, kes pakuvad tundlikke ja sageli reguleeritud andmeid, mis toidavad AI mudeleid, nõuavad tugevat kinnitust, et nende teave jääb konfidentsiaalseks. Nad ei saa usaldada, et infrastruktuuri pakkuja ei näe nende andmeid täitmise ajal, ega saa nad olla kindlad, et mudelipakkuja ei kuritarvita ega leki andmeid järelduste tegemise või töötlemise ajal.

See läbiv usalduse puudumine toob esile kriitilise haavatavuse: tavapärases andmetöötluses ei ole andmed aktiivse töötlemise ajal krüpteeritud. See jätab tundlikud andmed ja patenteeritud mudelid mällu selgekujulisena ja süsteemiadministraatoritele juurdepääsetavaks, luues vastuvõetamatu riskiprofiili kaasaegsetele AI juurutustele.

Konfidentsiaalne andmetöötlus ja konteinerid: AI usalduse alus

Konfidentsiaalne andmetöötlus on selle sügava usaldusdilemma lahendamise keskmes. See muudab turvalisusmaastikku põhjalikult, tagades, et andmed ja mudelid jäävad krüptograafiliselt kaitstuks kogu nende täitmise elutsükli vältel, mitte ainult puhkeolekus või edastamisel. See saavutatakse riistvaraliselt toetatud Usaldusväärsete Täitmiskeskkondade (TEEde) kasutamisega, mis loovad isoleeritud, krüpteeritud mälu piirkonnad, kus tundlikud arvutused saavad toimuda võõrustaja operatsioonisüsteemi või hüperviisori poolt avastamatult.

Kuigi konfidentsiaalne andmetöötlus pakub kriitilist riistvara alust, rakendavad Konfidentsiaalsed Konteinerid (CoCo) seda turvaparadigmat spetsiaalselt Kubernetes keskkondades. CoCo võimaldab Kubernetes podidel töötada nende riistvaraliselt toetatud TEEde sees, ilma et rakenduse koodi oleks vaja muuta või ümber kirjutada. Selle asemel, et jagada võõrustaja tuuma, kapseldatakse iga pod läbipaistvalt kergesse, riistvaraliselt isoleeritud virtuaalmasinasse (VM), mida toetavad Kata Containers. See innovatiivne lähenemine säilitab olemasolevad pilvepõhised töövoogud ja tööriistad, jõustades samal ajal rangeid isolatsioonipiire, tõstes turvalisust ilma operatiivset paindlikkust ohverdamata.

Mudelite pakkujate jaoks on patenteeritud mudelikaalude varguse oht ülimalt oluline. CoCo lahendab selle otse, eemaldades tõhusalt võõrustaja operatsioonisüsteemi ja hüperviisori kriitilisest usaldusvõrrandist. Kui AI mudel juurutatakse Konfidentsiaalsesse Konteinerisse, jääb see krüpteerituks. Ainult pärast seda, kui riistvara on matemaatiliselt kontrollinud TEE enklaavi terviklikkust ja turvalisust protsessi kaudu, mida nimetatakse kaug-atesteerimiseks, vabastab spetsiaalne võtmevahendusteenus (KBS) vajaliku dekrüpteerimisvõtme. See võti edastatakse seejärel eranditult TEE kaitstud mällu, tagades, et mudelikaalud ei ole kunagi võõrustajakeskkonnale, isegi üliprivilegeeritud administraatoritele, selgekujulisena avatud.

NVIDIA nullus-usaldus võrdlusarhitektuur turvaliste AI vabrikute jaoks

NVIDIA on koostöös avatud lähtekoodiga Konfidentsiaalsete Konteinerite kogukonnaga välja töötanud tervikliku võrdlusarhitektuuri CoCo tarkvarapinu jaoks. See plaan määratleb standardiseeritud, täieliku virna lähenemise nullus-usaldus AI vabrikute ehitamiseks paljale riistvarale. See kirjeldab detailselt, kuidas integreerida tipptasemel riistvara ja tarkvara komponente, et turvaliselt juurutada piirimudeleid, kaitstes nii nende tundlikke andmeid kui ka intellektuaalomandit võõrustajakeskkonnale avamise eest.

Selle tugeva arhitektuuri põhipostid on:

PõhipostKirjeldus
Riistvara usalduse juurKasutab CPU Usaldusväärseid Täitmiskeskkondi (TEE-sid) koos NVIDIA konfidentsiaalsete GPU-dega (nt NVIDIA Hopper, NVIDIA Blackwell) riistvaraliselt kiirendatud, mälu krüpteeritud AI töökoormuste jaoks.
Kata Konteinerite käitusaegKapseldab standardsed Kubernetes Podid kergetesse, riistvaraliselt isoleeritud utiliit-virtuaalmasinatesse (UVM-idesse), pakkudes tugevat isolatsiooni võõrustaja tuuma jagamise asemel.
Karmistatud mikro-külaliskeskkondRakendab distro-välist, minimaalset külalisoperatsioonisüsteemi, millel on vormitud juurfailisüsteem ja NVIDIA käitusaegne konteiner (NVRC) turvalise init-süsteemi jaoks, vähendades drastiliselt VM-i rünnakuvektorite hulka.
AtesteerimisteenusKrüptograafiliselt kontrollib riistvarakeskkonna terviklikkust enne tundlike mudeli dekrüpteerimisvõtmete või saladuste külalisele vabastamist, hõlmates sageli võtmevahendusteenust (KBS).
Konfidentsiaalsete töökoormuste elutsükkelHõlbustab krüpteeritud ja allkirjastatud piltide (konteinerid, mudelid, artefaktid) turvalist tõmbamist otse krüpteeritud TEE mällu, vältides kokkupuudet puhkeolekus või edastamisel, ja võimaldab peeneteralisi liidesepoliitikaid.
Natiivne Kubernetes ja GPU Operaatori integreerimineVõimaldab kogu virna haldamist standardsete Kubernetes primitiivide ja NVIDIA GPU Operaatori abil, võimaldades AI rakenduste 'tõsta-ja-nihuta' juurutamist ilma ümberkirjutamiseta.

See arhitektuur tagab, et AI töökoormused saavad kasu NVIDIA GPU-de jõudlusest, olles samal ajal krüptograafiliselt turvatud piirides.

CoCo ohumudeli ja usalduspiiride mõistmine AI turvalisuses

Konfidentsiaalsed Konteinerid (CoCo) töötavad rangelt määratletud ohumudeli alusel. Selles mudelis käsitletakse kogu infrastruktuurikihti – sealhulgas võõrustaja operatsioonisüsteemi, hüperviisorit ja potentsiaalselt ka pilveteenuse pakkujat ennast – olemuslikult usaldamatuna. See põhiarvamus on nullus-usaldus lähenemise jaoks kriitiline.

Selle asemel, et tugineda infrastruktuuri administraatorite valvsusele või terviklikkusele turvakontrolli jõustamisel, nihutab CoCo strateegiliselt esmase usalduspiiri riistvaraliselt toetatud Usaldusväärsetele Täitmiskeskkondadele (TEEd). See tähendab, et AI töökoormused täidetakse krüpteeritud, virtualiseeritud keskkondades, kus mälu sisu on võõrustajale loetamatu. Oluline on see, et tundlikud saladused, näiteks mudeli dekrüpteerimisvõtmed, vabastatakse alles pärast seda, kui täitmiskeskkond on krüptograafiliselt tõestanud oma terviklikkuse ja autentsuse kaug-atesteerimise kaudu.

Siiski on elutähtis mõista selle kaitse täpset ulatust – mida CoCo kaitseb ja mis jääb selle ulatusest välja.

Mida CoCo kaitseb

CoCo pakub tugevaid garantii nii konfidentsiaalsuse kui ka terviklikkuse osas AI töökoormuste täitmisel:

  1. Andmete ja mudeli kaitse: Mälu krüpteerimine on nurgakivi, mis takistab võõrustajakeskkonnal tundlikele andmetele, patenteeritud mudelikaaludele või järelduste koormusele juurdepääsu, kui töökoormus aktiivselt TEE sees töötab.
  2. Täitmise terviklikkus: Kaug-atesteerimine mängib kriitilist rolli, kontrollides, et töökoormus töötab tõepoolest usaldusväärses, kompromiteerimata keskkonnas oodatud tarkvaramõõtmistega enne tundlike saladuste või mudeli dekrüpteerimisvõtmete vabastamist.
  3. Turvaline piltide ja salvestuse käsitsemine: Konteineripildid tõmmatakse, kontrollitakse ja pakitakse otse turvalises, krüpteeritud külaliskeskkonnas. See tagab, et võõrustaja infrastruktuur ei saa rakenduse koodi ega väärtuslikke mudeliartefakte ühelgi hetkel uurida ega nendega manipuleerida.
  4. Kaitse võõrustaja taseme juurdepääsu eest: Arhitektuur kaitseb tõhusalt töökoormusi privilegeeritud võõrustaja toimingute eest. Administratiivsed silumistööriistad, mälu uurimine või ketta nühkimine võõrustaja poolt ei saa avastada töötava AI töökoormuse konfidentsiaalset sisu.

Mida CoCo ei kaitse

Kuigi väga tõhus, jäävad teatud riskid ja rünnakute vektorid väljapoole CoCo arhitektuuri olemuslikku ulatust:

  1. Rakenduse haavatavused: CoCo tagab kontrollitud ja konfidentsiaalse täitmiskeskkonna, kuid see ei paranda ega takista olemuslikult haavatavusi AI rakenduse koodis endas. Kui rakendusel on viga, mis viib andmete lekkimiseni või ebaõigele töötlemisele, ei saa CoCo seda leevendada.
  2. Kättesaadavuse rünnakud: CoCo peamine fookus on konfidentsiaalsus ja terviklikkus. See ei takista otseselt teenusekeelurünnakuid (DoS) ega muid kättesaadavuse rünnakuid, mille eesmärk on teenust häirida, mitte andmeid varastada. Endiselt on vaja meetmeid, nagu üleliigne infrastruktuur ja võrgutaseme kaitse.
  3. Võrguturvalisus: Andmed edastamisel, võrgu lõpp-punktide turvalisus ja võrguprotokollide haavatavused jäävad väljapoole TEE otsest kaitset. Turvalised sidekanalid (nt TLS/SSL) ja tugev võrgu segmenteerimine on täiendavad nõuded. Sügavama ülevaate saamiseks AI turvamisest kaaluge strateegiate uurimist pahatahtliku AI kasutamise tõkestamiseks.

Turvalise AI tuleviku ehitamine

AI teekond eksperimenteerimisest tootmisesse nõuab paradigmavahetust turvalisuses. Ettevõtted ei juuruta enam lihtsalt mudeleid; nad ehitavad keerulisi AI vabrikuid, mis toodavad luureandmeid suures ulatuses. NVIDIA nullus-usaldus arhitektuur, mida toetavad Konfidentsiaalsed Konteinerid ja riistvaraliselt toetatud TEEd, pakub selle uue ajastu jaoks kriitilist alust. Hoolikalt lahendades omaseid usaldusdilemmasid ja pakkudes tugevaid krüptograafilisi garantiid, saavad organisatsioonid kindlalt juurutada patenteeritud mudeleid ja töödelda tundlikke andmeid, kiirendades AI kasutuselevõttu turvalisust ohverdamata. See lähenemine ei kaitse mitte ainult intellektuaalomandit ja privaatset teavet, vaid loob ka uue usaldustaseme kogu AI arendus- ja juurutamise elutsükli jooksul. Kuna AI areneb edasi, on selliste täiustatud turvaraamistike integreerimine ülioluline selle täieliku, transformatiivse potentsiaali realiseerimiseks. Lisaks rõhutab pidev strateegiline koostöö valdkonna juhtide vahel, näiteks AWS-i ja NVIDIA vaheline süvenev strateegiline koostöö AI kiirendamiseks piloodist tootmisse, tööstuse pühendumust turvaliste ja skaleeritavate AI lahenduste edendamisele.

Korduma kippuvad küsimused

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

Püsige kursis

Saage värskeimad AI uudised oma postkasti.

Jaga