Code Velocity
AI Drošība

Nulles uzticības AI rūpnīcas: Konfidenciālu AI darba slodžu nodrošināšana ar TEEs

·7 min lasīšana·NVIDIA·Sākotnējais avots
Dalīties
Diagramma, kas ilustrē nulles uzticības arhitektūru, kas aizsargā konfidenciālas AI darba slodzes AI rūpnīcās.

Strauja AI attīstība ir to pārcēlusi no eksperimentāliem posmiem uz uzņēmumu darbības kodolu. Tomēr joprojām pastāv ievērojams šķērslis: lielākā daļa kritisko uzņēmuma datu, tostarp ļoti sensitīvi pacientu reģistri, patentēti tirgus pētījumi un nenovērtējamas vēsturiskās zināšanas, atrodas ārpus publiskā mākoņa. Šīs sensitīvās informācijas integrēšana ar AI modeļiem rada ievērojamas privātuma un uzticības problēmas, bieži vien palēninot vai pilnībā bloķējot AI ieviešanu.

Lai patiesi atraisītu AI potenciālu, uzņēmumi veido "AI rūpnīcas" — specializētas, augstas veiktspējas infrastruktūras, kas paredzētas inteliģences ģenerēšanai lielos apjomos. Lai šīs rūpnīcas gūtu panākumus ar sensitīviem datiem un patentētiem modeļiem, tām jābūt veidotām uz nelokāma nulles uzticības pamata. Šī paradigma nosaka, ka nevienai entītijai, vai tas būtu lietotājs, ierīce vai lietojumprogramma, netiek netieši uzticēts. Tā vietā visas piekļuves pieprasījumi tiek stingri autentificēti un autorizēti. Tas tiek panākts, izmantojot aparatūras nodrošinātas uzticamas izpildes vides (TEEs) un kriptogrāfisku apliecināšanu, radot drošības arhitektūru, kas novērš raksturīgo uzticēšanos pamatā esošajai resursdatora infrastruktūrai. Šis raksts pēta pilna slāņa pieeju, izklāstot NVIDIA atsauces arhitektūru šī nulles uzticības pamata integrēšanai modernajās AI rūpnīcās.

AI rūpnīcas uzticības dilemma: daudzpusējs izaicinājums

Pāreja uz modernu, bieži vien patentētu, robežmodeļu izvietošanu koplietojamā infrastruktūrā rada sarežģītu, daudzpusīgu uzticības dilemmu starp galvenajām ieinteresētajām pusēm AI rūpnīcas ekosistēmā. Šis "apļa uzticības trūkums" pamatā izriet no tradicionālās skaitļošanas vides nespējas šifrēt datus, kamēr tie tiek izmantoti.

  1. Modeļu īpašnieki pret infrastruktūras nodrošinātājiem: Modeļu īpašnieki iegulda ievērojamus līdzekļus patentētu AI modeļu izstrādē, kuru svari un algoritmu loģika veido būtisku intelektuālo īpašumu. Viņi nevar netieši uzticēties, ka resursdatora operētājsistēma, hipervizors vai pat saknes administrators nepārbaudīs, nenozags vai neizvilks viņu vērtīgos modeļus, kad tie tiek izvietoti koplietojamā infrastruktūrā.
  2. Infrastruktūras nodrošinātāji pret modeļu īpašniekiem/nomniekiem: Savukārt tie, kas pārvalda un ekspluatē aparatūru un Kubernetes klasterus — infrastruktūras nodrošinātāji —, nevar akli uzticēties, ka modeļa īpašnieka vai nomnieka darba slodze ir labdabīga. Pastāv pastāvīgs ļaunprātīga koda, privilēģiju palielināšanas mēģinājumu vai resursdatora drošības robežu pārkāpumu risks, kas iegulti izvietotajās AI lietojumprogrammās.
  3. Nomnieki (datu īpašnieki) pret modeļu īpašniekiem un infrastruktūras nodrošinātājiem: Datu īpašnieki, kas piegādā sensitīvus un bieži regulētus datus, kas darbina AI modeļus, pieprasa stingru garantiju, ka viņu informācija paliek konfidenciāla. Viņi nevar uzticēties, ka infrastruktūras nodrošinātājs neapskatīs viņu datus izpildes laikā, nedz arī viņi var būt pārliecināti, ka modeļa nodrošinātājs neizmantos ļaunprātīgi vai nenoplūdinās datus secinājumu iegūšanas vai apstrādes laikā.

Šis plaši izplatītais uzticības trūkums izceļ kritisku ievainojamību: tradicionālajā skaitļošanā dati netiek šifrēti, kamēr tie tiek aktīvi apstrādāti. Tas atstāj sensitīvus datus un patentētus modeļus nešifrētus atmiņā un pieejamus sistēmas administratoriem, radot nepieņemamu riska profilu modernām AI izvietošanām.

Konfidenciālā skaitļošana un konteineri: AI uzticības pamats

Konfidenciālā skaitļošana parādās kā galvenais risinājums šai dziļajai uzticības dilemmai. Tā fundamentāli maina drošības ainavu, nodrošinot, ka dati un modeļi paliek kriptogrāfiski aizsargāti visā to izpildes dzīves ciklā, ne tikai miera stāvoklī vai tranzītā. Tas tiek panākts, izmantojot aparatūras nodrošinātas uzticamas izpildes vides (TEEs), kas rada izolētas, šifrētas atmiņas reģionus, kur var notikt sensitīvas skaitļošanas bez atklāšanas resursdatora operētājsistēmai vai hipervizoram.

Kamēr konfidenciālā skaitļošana nodrošina būtisku aparatūras pamatu, konfidenciāli konteineri (CoCo) operacionalizē šo drošības paradigmu īpaši Kubernetes vidēm. CoCo ļauj Kubernetes podiem darboties šajās aparatūras nodrošinātajās TEEs bez nepieciešamības veikt jebkādas izmaiņas vai pārrakstījumus lietojumprogrammas kodā. Tā vietā, lai koplietotu resursdatora kodolu, katrs pods tiek caurspīdīgi iekapsulēts vieglā, aparatūras izolētā virtuālajā mašīnā (VM), ko darbina Kata Containers. Šī inovatīvā pieeja saglabā esošās mākoņdatošanas darbplūsmas un rīkus, vienlaikus nodrošinot stingras izolācijas robežas, paaugstinot drošību, neapdraudot darbības veiklību.

Modeļu nodrošinātājiem patentēto modeļu svaru zādzības draudi ir galvenā problēma. CoCo to tieši risina, efektīvi noņemot resursdatora operētājsistēmu un hipervizoru no kritiskās uzticības vienādojuma. Kad AI modelis tiek izvietots konfidenciālā konteinerā, tas paliek šifrēts. Tikai pēc tam, kad aparatūra matemātiski pārbauda TEE enklāva integritāti un drošību, izmantojot procesu, kas pazīstams kā attālā apliecināšana, specializēts atslēgu starpniekpakalpojums (KBS) atbrīvo nepieciešamo atšifrēšanas atslēgu. Šī atslēga pēc tam tiek piegādāta tikai aizsargātajā atmiņā TEE ietvaros, nodrošinot, ka modeļa svari nekad netiek atklāti nešifrētā veidā resursdatora videi, pat ļoti privileģētiem administratoriem.

NVIDIA nulles uzticības atsauces arhitektūra drošām AI rūpnīcām

NVIDIA, sadarbojoties ar atvērtā koda Confidential Containers kopienu, ir izstrādājusi visaptverošu atsauces arhitektūru CoCo programmatūras kaudzei. Šis projekts definē standartizētu, pilna slāņa pieeju nulles uzticības AI rūpnīcu veidošanai uz bare-metal infrastruktūras. Tas rūpīgi izklāsta, kā integrēt jaunākās aparatūras un programmatūras komponentes, lai droši izvietotu robežmodeļus, aizsargājot gan to sensitīvos datus, gan intelektuālo īpašumu no atklāšanas resursdatora videi.

Šīs stabilās arhitektūras galvenie pīlāri ir:

PillarDescription
Aparatūras uzticības sakneIzmanto CPU uzticamas izpildes vides (TEEs) kopā ar NVIDIA konfidenciālajām GPU (piemēram, NVIDIA Hopper, NVIDIA Blackwell) aparatūras paātrinātām, atmiņas šifrētām AI darba slodzēm.
Kata Containers izpildlaiksIetver standarta Kubernetes Pods vieglās, aparatūras izolētās utilītas VM (UVMs), nodrošinot spēcīgu izolāciju, nevis koplietojot resursdatora kodolu.
Pastiprināta mikro-viesa videIzmanto bez-distribūcijas, minimālu viesa OS ar cizelētu saknes failu sistēmu un NVIDIA Runtime Container (NVRC) drošai iniciācijas sistēmai, drastiski samazinot VM uzbrukuma virsmu.
Apliecināšanas pakalpojumsKriptogrāfiski pārbauda aparatūras vides integritāti pirms sensitīvo modeļu atšifrēšanas atslēgu vai noslēpumu atbrīvošanas viesim, bieži iesaistot atslēgu starpniekpakalpojumu (KBS).
Konfidenciālas darba slodzes dzīves ciklsVeicina drošu šifrētu un parakstītu attēlu (konteineru, modeļu, artefaktu) vilkšanu tieši šifrētā TEE atmiņā, novēršot atklāšanu miera stāvoklī vai tranzītā, un nodrošinot smalkgraudainu interfeisa politiku.
Vietējā Kubernetes un GPU Operator integrācijaĻauj pārvaldīt visu kaudzi, izmantojot standarta Kubernetes primitīvus un NVIDIA GPU Operator, nodrošinot AI lietojumprogrammu 'pacel un pārnes' izvietošanu bez pārrakstīšanas.

Šī arhitektūra nodrošina, ka AI darba slodzes gūst labumu no NVIDIA GPU veiktspējas, vienlaikus esot iekapsulētām kriptogrāfiski aizsargātās robežās.

CoCo draudu modeļa un uzticības robežu izpratne AI drošībā

Konfidenciāli konteineri (CoCo) darbojas stingri definētā draudu modelī. Šajā modelī visa infrastruktūras kārta — ieskaitot resursdatora operētājsistēmu, hipervizoru un potenciāli pašu mākoņpakalpojumu sniedzēju — tiek uzskatīta par dabiski neuzticamu. Šis fundamentālais pieņēmums ir kritisks nulles uzticības pieejai.

Tā vietā, lai paļautos uz infrastruktūras administratoru modrību vai integritāti drošības kontroles nodrošināšanā, CoCo stratēģiski pārvieto primāro uzticības robežu uz aparatūras nodrošinātām uzticamām izpildes vidēm (TEEs). Tas nozīmē, ka AI darba slodzes tiek izpildītas šifrētās, virtualizētās vidēs, kur atmiņas saturs ir neizprotams resursdatoram. Būtiski ir tas, ka sensitīvie noslēpumi, piemēram, modeļu atšifrēšanas atslēgas, tiek atbrīvoti tikai pēc tam, kad izpildes vide ir kriptogrāfiski pierādījusi savu integritāti un autentiskumu, izmantojot attālo apliecināšanu.

Tomēr ir būtiski izprast šīs aizsardzības precīzo tvērumu — ko CoCo aizsargā un kas paliek ārpus tās darbības jomas.

Ko CoCo aizsargā

CoCo nodrošina stingras garantijas gan konfidencialitātei, gan integritātei AI darba slodžu izpildes laikā:

  1. Datu un modeļa aizsardzība: Atmiņas šifrēšana ir stūrakmens, kas neļauj resursdatora videi piekļūt sensitīviem datiem, patentētiem modeļu svariem vai secinājumu slodzēm, kamēr darba slodze aktīvi darbojas TEE ietvaros.
  2. Izpildes integritāte: Attālā apliecināšana spēlē kritisku lomu, pārbaudot, vai darba slodze patiešām darbojas uzticamā, nekompromitētā vidē ar paredzētajiem programmatūras mērījumiem, pirms tiek atbrīvoti jebkādi sensitīvi noslēpumi vai modeļu atšifrēšanas atslēgas.
  3. Droša attēlu un krātuves apstrāde: Konteineru attēli tiek vilkti, verificēti un izpakoti tieši drošā, šifrētā viesa vidē. Tas nodrošina, ka resursdatora infrastruktūra nevar pārbaudīt vai bojāt lietojumprogrammas kodu vai vērtīgus modeļa artefaktus jebkurā brīdī.
  4. Aizsardzība pret piekļuvi resursdatora līmenī: Arhitektūra efektīvi pasargā darba slodzes no privileģētām resursdatora darbībām. Administratīvās atkļūdošanas rīki, atmiņas pārbaude vai diska nokasīšana no resursdatora puses nevar atklāt konfidenciālu AI darba slodzes saturu.

Ko CoCo neaizsargā

Lai gan ļoti efektīvs, daži riski un uzbrukuma vektori atrodas ārpus CoCo arhitektūras tiešā tvēruma:

  1. Lietojumprogrammu ievainojamības: CoCo nodrošina verificētu un konfidenciālu izpildes vidi, taču tas dabiski nelabo vai nenovērš ievainojamības pašā AI lietojumprogrammas kodā. Ja lietojumprogrammai ir kļūda, kas izraisa datu noplūdi vai nepareizu apstrādi, CoCo to nevar mazināt.
  2. Pieejamības uzbrukumi: CoCo galvenā uzmanība ir vērsta uz konfidencialitāti un integritāti. Tas tieši nenovērš pakalpojumu atteikuma (DoS) vai citus pieejamības uzbrukumus, kuru mērķis ir pārtraukt pakalpojumu, nevis zagt datus. Joprojām ir nepieciešami tādi pasākumi kā lieka infrastruktūra un tīkla līmeņa aizsardzība.
  3. Tīkla drošība: Dati tranzītā, tīkla galapunktu drošība un ievainojamības tīkla protokolos atrodas ārpus TEE tiešās aizsardzības. Droši komunikācijas kanāli (piemēram, TLS/SSL) un robusta tīkla segmentācija ir papildu prasības. Lai gūtu dziļāku ieskatu AI nodrošināšanā, apsveriet stratēģijas ļaunprātīgas AI izmantošanas pārtraukšanai.

Drošas AI nākotnes veidošana

AI ceļš no eksperimentiem līdz ražošanai prasa paradigmas maiņu drošībā. Uzņēmumi vairs vienkārši neizvieto modeļus; tie veido sarežģītas AI rūpnīcas, kas masveidā ražo inteliģenci. NVIDIA nulles uzticības arhitektūra, ko darbina konfidenciāli konteineri un aparatūras nodrošinātas TEEs, nodrošina kritisko pamatu šai jaunajai ērai. Rūpīgi risinot raksturīgās uzticības dilemmas un nodrošinot stabilas kriptogrāfiskās garantijas, organizācijas var droši izvietot patentētus modeļus un apstrādāt sensitīvus datus, paātrinot AI ieviešanu, neapdraudot drošību. Šī pieeja ne tikai aizsargā intelektuālo īpašumu un privāto informāciju, bet arī veicina jaunu uzticības līmeni visā AI izstrādes un izvietošanas dzīves ciklā. Tā kā AI turpina attīstīties, šādu progresīvu drošības ietvaru integrācija būs izšķiroša, lai īstenotu tās pilno, transformējošo potenciālu. Turklāt notiekošā stratēģiskā sadarbība starp nozares līderiem, piemēram, AWS un NVIDIA padziļina savu stratēģisko sadarbību, lai paātrinātu AI no pilota līdz ražošanai, uzsver nozares apņemšanos attīstīt drošus un mērogojamus AI risinājumus.

Bieži uzdotie jautājumi

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties