title: "Fabrikat e AI me Zero Besim: Sigurimi i Ngarkesave të Punës Konfidenciale të AI me TEE-të" slug: "building-a-zero-trust-architecture-for-confidential-ai-factories" date: "2026-03-25" lang: "sq" source: "https://developer.nvidia.com/blog/building-a-zero-trust-architecture-for-confidential-ai-factories/" category: "Siguria e AI" keywords:
- "Zero Besim"
- "Siguria e AI"
- "Llogaritja Konfidenciale"
- "Mjedise Ekzekutimi të Besuar"
- "TEEs"
- "NVIDIA"
- "Fabrikat e AI"
- "Kubernetes"
- "Konteinerët Konfidencialë"
- "Mbrojtja e të Dhënave"
- "Siguria e Modelit"
- "Vërtetim në Distancë" meta_description: "Eksploroni si të ndërtoni fabrika të AI me zero besim duke përdorur arkitekturën referencë të NVIDIA-s, duke shfrytëzuar Konteinerët Konfidencialë dhe TEE-të për siguri të fortë të AI dhe mbrojtje të të dhënave." image: "/images/articles/building-a-zero-trust-architecture-for-confidential-ai-factories.png" image_alt: "Diagram që ilustron një arkitekturë zero besim duke mbrojtur ngarkesat konfidenciale të AI në fabrikat e AI." quality_score: 94 content_score: 93 seo_score: 95 companies:
- NVIDIA schema_type: "NewsArticle" reading_time: 7 faq:
- question: "Çfarë është një fabrikë AI me zero besim dhe pse është e rëndësishme për ndërmarrjet?" answer: "Një fabrikë AI me zero besim është një infrastrukturë me performancë të lartë e projektuar për të prodhuar inteligjencë në shkallë, e ndërtuar mbi parimin 'kurrë mos beso, gjithmonë verifiko.' Ajo eliminon besimin implicit në infrastrukturën themelore pritëse duke përdorur Mjedise Ekzekutimi të Besuar (TEEs) të zbatuara me harduer dhe vërtetim kriptografik. Kjo është thelbësore për ndërmarrjet që trajtojnë të dhëna të ndjeshme (si të dhënat e pacientëve ose kërkimet e tregut) dhe modele pronësore të AI, pasi zbut rreziqet e ekspozimit të të dhënave, vjedhjes së pronësisë intelektuale dhe shqetësimeve të privatësisë, duke përshpejtuar kështu adoptimin e AI në mjediset e prodhimit. Rëndësia e saj qëndron në mundësimin e përpunimit të sigurt të informacionit shumë konfidencial."
- question: "Cila është 'dilema e besimit' në vendosjen e modeleve të AI në infrastrukturën e përbashkët?" answer: "Dilema e besimit në vendosjen e AI lind nga kërkesat kontradiktore të besimit midis pronarëve të modeleve, ofruesve të infrastrukturës dhe pronarëve të të dhënave. Pronarët e modeleve kanë frikë nga vjedhja e pronësisë intelektuale nga ofruesit e infrastrukturës; ofruesit e infrastrukturës shqetësohen për ngarkesat me qëllim të keq nga pronarët e modeleve; dhe pronarët e të dhënave kanë nevojë për siguri se as infrastruktura as ofruesit e modeleve nuk do të keqpërdorin ose ekspozojnë të dhënat e tyre të ndjeshme gjatë ekzekutimit. Kjo mungesë rrethore besimi vjen kryesisht nga fakti se të dhënat nuk janë të kriptuara gjatë përdorimit në mjediset tradicionale të llogaritjes, duke i lënë ato të cenueshme ndaj inspektimit nga administratorët e sistemit dhe hipervizorët, duke krijuar sfida të rëndësishme sigurie."
- question: "Si e rrit llogaritja konfidenciale sigurinë e modeleve dhe të dhënave të AI?" answer: "Llogaritja konfidenciale adreson çështjen thelbësore të ekspozimit të të dhënave duke siguruar që të dhënat dhe modelet e AI të mbeten të mbrojtura kriptografikisht gjatë gjithë ciklit të tyre të plotë të ekzekutimit. Ndryshe nga sistemet tradicionale ku të dhënat në përdorim janë të pakriptuara, llogaritja konfidenciale shfrytëzon Mjedise Ekzekutimi të Besuar (TEEs) të mbështetura nga hardueri për të kriptuar memorien. Kjo do të thotë që të dhënat e ndjeshme, peshat e modeleve dhe ngarkesat e inferencës mbrohen nga aksesi i paautorizuar, madje edhe nga softuerët pritës të privilegjuar ose administratorët, duke reduktuar ndjeshëm rrezikun e vjedhjes së pronësisë intelektuale dhe shkeljeve të të dhënave gjatë inferencës dhe trajnimit të modeleve të AI dhe duke siguruar mbrojtje të fortë."
- question: "Çfarë janë Konteinerët Konfidencialë (CoCo), dhe si e operacionalizojnë ata llogaritjen konfidenciale për Kubernetes?" answer: "Konteinerët Konfidencialë (CoCo) operacionalizojnë përfitimet e llogaritjes konfidenciale brenda mjediseve Kubernetes. Në vend që të ekzekutojnë pod-e standarde të Kubernetes drejtpërdrejt në kernelin pritës, CoCo mbështjell çdo pod në një makinë virtuale (VM) të lehtë, të izoluar me harduer duke përdorur Kata Containers. Kjo qasje ruan rrjedhat e punës cloud-native duke zbatuar izolim të fortë. Për AI, CoCo siguron që peshat pronësore të modeleve të mbeten të kriptuara derisa hardueri të provojë matematikisht sigurinë e enklavës përmes vërtetimit në distancë. Një Shërbim Brokeri Çelësash më pas lëshon çelësat e dekriptimit vetëm në këtë memorie të mbrojtur, duke parandaluar ekspozimin ndaj OS-së pritëse ose hipervizorit."
- question: "Cilat janë shtyllat kryesore të arkitekturës referencë të NVIDIA-s për fabrikat e AI me zero besim?" answer: "Arkitektura referencë e NVIDIA-s kombinon disa komponentë thelbësorë për të ndërtuar fabrika të fuqishme AI me zero besim. Shtylla kryesore përfshijnë një Rrënjë Besimi Harduerike, duke përdorur TEE-të e CPU-së dhe GPU-të konfidenciale të NVIDIA-s për ngarkesa pune të AI të shpejtuara me harduer dhe të kriptuara në memorie; runtime-in e Kata Containers për pod-e Kubernetes të izoluara me harduer; një Mjedis Mikro-Mysafir i Fortësuar me një OS mysafir minimal për të reduktuar sipërfaqen e sulmit; një Shërbim Vërtetimi për të verifikuar kriptografikisht integritetin e harduerit përpara se të lëshojë sekrete; një Cikël Jete të Ngarkesës Konfidenciale për tërheqjen dhe vendosjen e sigurt të imazheve; dhe Integrimi Nativ i Kubernetes dhe GPU Operator për menaxhim dhe vendosje të pandërprerë pa rishkrim të aplikacionit."
- question: "Cilat aspekte të sigurisë nuk mbulohen nga Konteinerët Konfidencialë (CoCo)?" answer: "Ndërsa CoCo ofron garanci të forta konfidencialiteti dhe integriteti për ekzekutimin e të dhënave dhe modeleve, ai nuk mbron nga të gjitha llojet e sulmeve. Konkretisht, CoCo nuk adreson dobësitë e aplikacionit, që do të thotë defekte brenda vetë kodit të aplikacionit të AI që mund të shfrytëzohen. Ai gjithashtu nuk parandalon në mënyrë të natyrshme sulmet e disponueshmërisë, të cilat synojnë të ndërpresin shërbimin në vend që të vjedhin të dhëna. Për më tepër, siguria e rrjetit, si mbrojtja e të dhënave në tranzit ose sigurimi i pikave fundore të rrjetit, mbetet jashtë fushëveprimit të drejtpërdrejtë të CoCo-s. Këto aspekte kërkojnë masa sigurie plotësuese së bashku me kuadrin e llogaritjes konfidenciale për një pozicion të plotë sigurie."
Përparimi i shpejtë i AI e ka shtyrë atë nga fazat eksperimentale në zemër të operacioneve të ndërmarrjeve. Megjithatë, një pengesë e rëndësishme mbetet: pjesa më e madhe e të dhënave kritike të ndërmarrjeve, duke përfshirë të dhënat shumë të ndjeshme të pacientëve, kërkimet e pronësisë intelektuale të tregut dhe njohuritë e vlefshme trashëgimore, ndodhen jashtë 'cloud'-it publik. Integrimi i këtij informacioni të ndjeshëm me modelet e AI sjell shqetësime thelbësore për privatësinë dhe besimin, duke ngadalësuar shpesh ose duke bllokuar plotësisht adoptimin e AI.
Për të zhbllokuar vërtet potencialin e AI, ndërmarrjet po ndërtojnë "fabrika AI"—infrastruktura të specializuara, me performancë të lartë, të dizajnuara për të gjeneruar inteligjencë në shkallë. Që këto fabrika të kenë sukses me të dhëna të ndjeshme dhe modele pronësore, ato duhet të ndërtohen mbi një themel të palëkundur të zero besimit. Ky parim dikton që asnjë entitet, qoftë përdorues, pajisje ose aplikacion, nuk besohet në mënyrë implicite. Në vend të kësaj, të gjitha kërkesat për akses autentifikohen dhe autorizohen në mënyrë rigoroze. Kjo arrihet përmes Mjediseve të Ekzekutimit të Besuar (TEEs) të zbatuara me harduer dhe vërtetimit kriptografik, duke krijuar një arkitekturë sigurie që eliminon besimin e brendshëm në infrastrukturën themelore pritëse. Ky artikull eksploron një qasje të plotë të stack-ut, duke përshkruar arkitekturën referencë të NVIDIA-s për integrimin e këtij themeli zero besimi në fabrikat moderne të AI.
Dilema e Besimit në Fabrikat e AI: Një Sfidë me Shumë Palë të Interesuara
Zhvendosja drejt vendosjes së modeleve kufitare të avancuara, shpesh pronësore, në infrastrukturën e përbashkët sjell një dilemë komplekse dhe shumëdimensionale besimi midis palëve kyçe të interesuara në një ekosistem fabrikash AI. Kjo "mungesë rrethore besimi" rrjedh thelbësisht nga dështimi i mjedisit tradicional të llogaritjes për të kriptuar të dhënat gjatë përdorimit të tyre.
- Pronarët e Modeleve kundrejt Ofruesve të Infrastrukturës: Pronarët e modeleve investojnë shumë në zhvillimin e modeleve pronësore të AI, peshat dhe logjika algoritmike e të cilave përfaqësojnë pronësi të rëndësishme intelektuale. Ata nuk mund të besojnë në mënyrë implicite se sistemi operativ pritës, hipervizori, apo edhe një administrator rrënjësor nuk do të inspektojë, vjedhë ose nxjerrë modelet e tyre të vlefshme kur vendosen në infrastrukturën e përbashkët.
- Ofruesit e Infrastrukturës kundrejt Pronarëve të Modeleve/Qiramarrësve: Anash, ata që menaxhojnë dhe operojnë harduerin dhe grupet Kubernetes—ofruesit e infrastrukturës—nuk mund të besojnë verbërisht se ngarkesa e punës e një pronari modeli ose qiramarrësi është e padëmshme. Ekziston një rrezik i vazhdueshëm i kodit me qëllim të keq, tentativave për ngritje privilegjesh, ose shkeljeve të kufijve të sigurisë së hostit të ngulitura brenda aplikacioneve të vendosura të AI.
- Qiramarrësit (Pronarët e të Dhënave) kundrejt Pronarëve të Modeleve dhe Ofruesve të Infrastrukturës: Pronarët e të dhënave, të cilët furnizojnë të dhënat e ndjeshme dhe shpesh të rregulluara që nxisin modelet e AI, kërkojnë garanci të fuqishme se informacioni i tyre mbetet konfidencial. Ata nuk mund të besojnë se ofruesi i infrastrukturës nuk do të shohë të dhënat e tyre gjatë ekzekutimit, as nuk mund të jenë të sigurt se ofruesi i modelit nuk do të keqpërdorë ose do të nxjerrë të dhënat gjatë inferencës ose përpunimit.
Kjo mungesë e përhapur besimi thekson një dobësi kritike: në llogaritjen konvencionale, të dhënat nuk janë të kriptuara ndërsa përpunohen në mënyrë aktive. Kjo i lë të dhënat e ndjeshme dhe modelet pronësore të ekspozuara në tekst të qartë brenda memories dhe të aksesueshme nga administratorët e sistemit, duke krijuar një profil rreziku të papranueshëm për vendosjet moderne të AI.
Llogaritja Konfidenciale dhe Konteinerët: Themeli i Besimit në AI
Llogaritja konfidenciale shfaqet si zgjidhja thelbësore për këtë dilemë të thellë besimi. Ajo ndryshon rrënjësisht peizazhin e sigurisë duke siguruar që të dhënat dhe modelet të mbeten të mbrojtura kriptografikisht gjatë gjithë ciklit të tyre të plotë të ekzekutimit, jo vetëm në qetësi ose në tranzit. Kjo arrihet duke shfrytëzuar Mjedise Ekzekutimi të Besuar (TEEs) të mbështetur nga hardueri që krijojnë rajone memorie të izoluara, të kriptuara ku mund të ndodhin llogaritje të ndjeshme pa ekspozim ndaj sistemit operativ pritës ose hipervizorit.
Ndërsa llogaritja konfidenciale ofron themelin thelbësor harduerik, Konteinerët Konfidencialë (CoCo) operacionalizojnë këtë paradigmë sigurie posaçërisht për mjediset Kubernetes. CoCo lejon pod-et e Kubernetes të ekzekutohen brenda këtyre TEE-ve të mbështetura nga hardueri pa kërkuar ndonjë ndryshim ose rishkrim të kodit të aplikacionit. Në vend që të ndajnë kernelin pritës, çdo pod inkapsulohet në mënyrë transparente brenda një makine virtuale (VM) të lehtë, të izoluar nga hardueri, e mundësuar nga Kata Containers. Kjo qasje inovative ruan rrjedhat dhe mjetet ekzistuese 'cloud-native' duke zbatuar kufizime strikte izolimi, duke rritur sigurinë pa kompromentuar shkathtësinë operacionale.
Për ofruesit e modeleve, kërcënimi i vjedhjes së peshave pronësore të modeleve është një shqetësim parësor. CoCo e adreson drejtpërdrejt këtë duke hequr në mënyrë efektive sistemin operativ pritës dhe hipervizorin nga ekuacioni kritik i besimit. Kur një model AI vendoset brenda një Konteineri Konfidencial, ai mbetet i kriptuar. Vetëm pasi hardueri verifikon matematikisht integritetin dhe sigurinë e enklavës TEE përmes një procesi të njohur si vërtetim në distancë, një Shërbim Brokeri Çelësash (KBS) i specializuar lëshon çelësin e nevojshëm të dekriptimit. Ky çelës më pas dorëzohet ekskluzivisht në memorien e mbrojtur brenda TEE-së, duke siguruar që peshat e modelit të mos ekspozohen kurrë në tekst të qartë ndaj mjedisit pritës, madje edhe ndaj administratorëve shumë të privilegjuar.
Arkitektura Referencë e NVIDIA-s me Zero Besim për Fabrikat e Sigurta të AI
NVIDIA, në bashkëpunim me komunitetin me burim të hapur Confidential Containers, ka zhvilluar një arkitekturë referencë gjithëpërfshirëse për 'stack'-un softuerik CoCo. Ky planpërshkrim përcakton një qasje të standardizuar, të plotë të 'stack'-ut për ndërtimin e fabrikave të AI me zero besim në infrastrukturën 'bare-metal'. Ai përshkruan me kujdes se si të integrohen komponentët e harduerit dhe softuerit të avancuar për të vendosur modelet kufitare në mënyrë të sigurt, duke mbrojtur si të dhënat e tyre të ndjeshme ashtu edhe pronësinë intelektuale nga ekspozimi ndaj mjedisit pritës.
Shtylla kryesore e kësaj arkitekture të fortë janë:
| Shtylla | Përshkrimi |
|---|---|
| Rrënjë Besimi Harduerike | Përdor Mjedise Ekzekutimi të Besuar të CPU-së (TEEs) të çiftuara me GPU-të konfidenciale të NVIDIA-s (p.sh., NVIDIA Hopper, NVIDIA Blackwell) për ngarkesa pune të AI të shpejtuara me harduer dhe të kriptuara në memorie. |
| Runtime i Kata Containers | Mbështjell Pod-et standarde të Kubernetes në VM-të e lehta, të izoluara me harduer (UVMs), duke siguruar izolim të fortë në vend të ndarjes së kernelit pritës. |
| Mjedis Mikro-Mysafir i Fortësuar | Përdor një OS mysafir minimal, pa distro, që përmban një sistem skedarësh rrënjë të 'chiseled' dhe NVIDIA Runtime Container (NVRC) për një sistem init të sigurt, duke reduktuar drastikisht sipërfaqen e sulmit të VM-së. |
| Shërbim Vërtetimi | Verifikon kriptografikisht integritetin e mjedisit harduerik përpara se të lëshojë çelësat e ndjeshëm të dekriptimit të modelit ose sekretet tek mysafiri, shpesh duke përfshirë një Shërbim Brokeri Çelësash (KBS). |
| Cikël Jete i Ngarkesës Konfidenciale | Lehtëson tërheqjen e sigurt të imazheve të kriptuara dhe të nënshkruara (konteinerë, modele, artefakte) direkt në memorien e kriptuar të TEE-së, duke parandaluar ekspozimin në qetësi ose në tranzit, dhe duke mundësuar politika ndërfaqeje të detajuara. |
| Integrim Nativ i Kubernetes dhe GPU Operator | Mundëson menaxhimin e të gjithë stack-ut duke përdorur primitivët standarde të Kubernetes dhe NVIDIA GPU Operator, duke lejuar vendosjen 'lift-and-shift' të aplikacioneve të AI pa rishkrime. |
Kjo arkitekturë siguron që ngarkesat e punës të AI të përfitojnë nga performanca e GPU-ve të NVIDIA-s ndërsa janë të inkapsuluara brenda kufijve të siguruar kriptografikisht.
Kuptimi i Modelit të Kërcënimit CoCo dhe Kufijve të Besimit në Sigurinë e AI
Konteinerët Konfidencialë (CoCo) operojnë sipas një modeli kërcënimi të përcaktuar me rigorozitet. Brenda këtij modeli, i gjithë shtresa e infrastrukturës—duke përfshirë sistemin operativ pritës, hipervizorin, dhe potencialisht vetë ofruesin e 'cloud'-it—trajtohet si thelbësisht i pabesueshëm. Ky supozim themelor është kritik për qasjen zero besim.
Në vend që të mbështetet në vigjilencën ose integritetin e administratorëve të infrastrukturës për të zbatuar kontrollet e sigurisë, CoCo zhvendos strategjikisht kufirin primar të besimit tek Mjediset e Ekzekutimit të Besuar (TEEs) të mbështetur nga hardueri. Kjo do të thotë se ngarkesat e punës të AI ekzekutohen brenda mjediseve të kriptuara, të virtualizuara, ku përmbajtja e memories është e padepërtueshme për pritësin. Në mënyrë thelbësore, sekretet e ndjeshme, si çelësat e dekriptimit të modeleve, lëshohen vetëm pasi mjedisi i ekzekutimit ka provuar kriptografikisht integritetin dhe autenticitetin e tij përmes vërtetimit në distancë.
Megjithatë, është thelbësore të kuptohet shtrirja e saktë e kësaj mbrojtjeje—çfarë mbron CoCo dhe çfarë mbetet jashtë fushëveprimit të saj.
Çfarë Mbron CoCo
CoCo ofron garanci të fuqishme si për konfidencialitetin ashtu edhe për integritetin gjatë ekzekutimit të ngarkesave të punës të AI:
- Mbrojtja e të Dhënave dhe Modeleve: Kriptimi i memories është një gur themeli, duke parandaluar mjedisin pritës nga aksesi në të dhëna të ndjeshme, pesha pronësore të modeleve ose ngarkesa inferencash ndërsa ngarkesa e punës po ekzekutohet në mënyrë aktive brenda TEE-së.
- Integriteti i Ekzekutimit: Vërtetimi në distancë luan një rol kritik duke verifikuar që ngarkesa e punës po ekzekutohet vërtet brenda një mjedisi të besuar, të pakompromentuar me matje softuerike të pritshme përpara se ndonjë sekret i ndjeshëm ose çelës dekriptimi modeli të lëshohet ndonjëherë.
- Trajtimi i Sigurt i Imazheve dhe Ruajtjes: Imazhet e konteinerëve tërhiqen, verifikohen dhe shpaketohen direkt brenda mjedisit mysafir të sigurt, të kriptuar. Kjo siguron që infrastruktura pritëse nuk mund të inspektojë ose ndërhyjë me kodin e aplikacionit ose artefaktet e vlefshme të modelit në asnjë pikë.
- Mbrojtja nga Aksesi në Nivel Host-i: Arkitektura mbron në mënyrë efektive ngarkesat e punës nga veprimet e privilegjuara të hostit. Mjetet administrative të debug-imit, inspektimi i memories, ose 'disk scraping' nga hosti nuk mund të ekspozojnë përmbajtjen konfidenciale të ngarkesës së punës të AI që po ekzekutohet.
Çfarë Nuk Mbron CoCo
Ndërsa është shumë efektive, rreziqe dhe vektorë të caktuar sulmi bien jashtë fushëveprimit të brendshëm të arkitekturës CoCo:
- Dobësitë e Aplikacionit: CoCo siguron mjedisin e verifikuar dhe konfidencial të ekzekutimit, por nuk rregullon ose parandalon në mënyrë të natyrshme dobësitë brenda vetë kodit të aplikacionit të AI. Nëse një aplikacion ka një defekt që çon në rrjedhje të të dhënave ose përpunim të gabuar, CoCo nuk mund ta zbusë këtë.
- Sulmet e Disponueshmërisë: Fokusi kryesor i CoCo-s është konfidencialiteti dhe integriteti. Ai nuk parandalon drejtpërdrejt sulmet e mohimit të shërbimit (DoS) ose sulme të tjera të disponueshmërisë që synojnë të ndërpresin shërbimin në vend që të vjedhin të dhëna. Masat si infrastruktura e tepërt dhe mbrojtjet në nivel rrjeti janë ende të nevojshme.
- Siguria e Rrjetit: Të dhënat në tranzit, siguria e pikave fundore të rrjetit dhe dobësitë në protokollet e rrjetit bien jashtë mbrojtjes së drejtpërdrejtë të TEE-së. Kanalet e komunikimit të sigurt (p.sh., TLS/SSL) dhe segmentimi i fortë i rrjetit janë kërkesa plotësuese. Për njohuri më të thella mbi sigurimin e AI, merrni parasysh eksplorimin e strategjive për ndërprerjen e përdorimeve keqdashëse të AI.
Ndërtimi i së Ardhmes së AI të Sigurt
Udhëtimi i AI nga eksperimentimi në prodhim kërkon një ndryshim paradigme në siguri. Ndërmarrjet nuk po vendosin më thjesht modele; ato po ndërtojnë fabrika komplekse të AI që prodhojnë inteligjencë në shkallë. Arkitektura zero besim e NVIDIA-s, e mundësuar nga Konteinerët Konfidencialë dhe TEE-të e mbështetura nga hardueri, ofron themelin kritik për këtë epokë të re. Duke adresuar me kujdes dilemat e besimit të brendshëm dhe duke ofruar garanci të fuqishme kriptografike, organizatat mund të vendosin me besim modele pronësore dhe të përpunojnë të dhëna të ndjeshme, duke përshpejtuar adoptimin e AI pa kompromentuar sigurinë. Kjo qasje jo vetëm që mbron pronësinë intelektuale dhe informacionin privat, por gjithashtu nxit një nivel të ri besimi në të gjithë ciklin e jetës së zhvillimit dhe vendosjes së AI. Ndërsa AI vazhdon të evoluojë, integrimi i kornizave të tilla të avancuara të sigurisë do të jetë thelbësor për realizimin e potencialit të saj të plotë, transformues. Për më tepër, bashkëpunimi strategjik i vazhdueshëm midis liderëve të industrisë, si AWS dhe NVIDIA thellojnë bashkëpunimin e tyre strategjik për të përshpejtuar AI, nënvizon angazhimin e industrisë për avancimin e zgjidhjeve të sigurta dhe të shkallëzueshme të AI.
Burimi origjinal
https://developer.nvidia.com/blog/building-a-zero-trust-architecture-for-confidential-ai-factories/Pyetjet e bëra shpesh
What is a zero-trust AI factory and why is it important for enterprises?
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
How does confidential computing enhance the security of AI models and data?
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
What security aspects are *not* covered by Confidential Containers (CoCo)?
Qëndroni të përditësuar
Merrni lajmet më të fundit të AI në email.
