Code Velocity
Sigurnost umjetne inteligencije

Tvornice umjetne inteligencije nultog povjerenja: zaštita povjerljivih radnih opterećenja umjetne inteligencije pomoću TEE-a

·7 min čitanja·NVIDIA·Izvorni izvor
Podijeli
Dijagram koji ilustrira arhitekturu nultog povjerenja koja štiti povjerljiva radna opterećenja umjetne inteligencije u tvornicama umjetne inteligencije.

title: "Tvornice umjetne inteligencije nultog povjerenja: zaštita povjerljivih radnih opterećenja umjetne inteligencije pomoću TEE-a" slug: "building-a-zero-trust-architecture-for-confidential-ai-factories" date: "2026-03-25" lang: "hr" source: "https://developer.nvidia.com/blog/building-a-zero-trust-architecture-for-confidential-ai-factories/" category: "Sigurnost umjetne inteligencije" keywords:

  • Nulto povjerenje
  • Sigurnost umjetne inteligencije
  • Povjerljivo računalstvo
  • Pouzdana izvršna okruženja
  • TEE-ovi
  • NVIDIA
  • Tvornice umjetne inteligencije
  • Kubernetes
  • Povjerljivi kontejneri
  • Zaštita podataka
  • Sigurnost modela
  • Daljinska potvrda meta_description: "Istražite kako izgraditi tvornice umjetne inteligencije nultog povjerenja koristeći NVIDIA-inu referentnu arhitekturu, koristeći povjerljive kontejnere i TEE-ove za robusnu sigurnost umjetne inteligencije i zaštitu podataka." image: "/images/articles/building-a-zero-trust-architecture-for-confidential-ai-factories.png" image_alt: "Dijagram koji ilustrira arhitekturu nultog povjerenja koja štiti povjerljiva radna opterećenja umjetne inteligencije u tvornicama umjetne inteligencije." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Što je tvornica umjetne inteligencije nultog povjerenja i zašto je važna za poduzeća?" answer: "Tvornica umjetne inteligencije nultog povjerenja je visokoučinkovita infrastruktura dizajnirana za proizvodnju inteligencije u velikom opsegu, izgrađena na principu 'nikad ne vjeruj, uvijek provjeravaj'. Ona eliminira implicitno povjerenje u temeljnu host infrastrukturu korištenjem hardverski nametnutih pouzdanih izvršnih okruženja (TEE-ova) i kriptografske potvrde. To je ključno za poduzeća koja se bave osjetljivim podacima (poput medicinskih kartona ili tržišnih istraživanja) i vlasničkim AI modelima, jer smanjuje rizike izloženosti podataka, krađe intelektualnog vlasništva i problema s privatnošću, čime se ubrzava usvajanje AI-ja u proizvodna okruženja. Njezina važnost leži u omogućavanju sigurne obrade visoko povjerljivih informacija."
  • question: "Koja je 'dilema povjerenja' pri implementaciji AI modela u zajedničku infrastrukturu?" answer: "Dilema povjerenja u implementaciji umjetne inteligencije proizlazi iz sukobljenih zahtjeva za povjerenjem između vlasnika modela, pružatelja infrastrukture i vlasnika podataka. Vlasnici modela strahuju od krađe IP-a od strane pružatelja infrastrukture; pružatelji infrastrukture brinu se o zlonamjernim radnim opterećenjima od strane vlasnika modela; a vlasnici podataka trebaju jamstvo da ni infrastruktura ni pružatelji modela neće zloupotrijebiti ili otkriti njihove osjetljive podatke tijekom izvršenja. Ovaj kružni nedostatak povjerenja prvenstveno je posljedica toga što podaci nisu šifrirani dok se koriste u tradicionalnim računalnim okruženjima, ostavljajući ih ranjivima na inspekciju od strane sistemskih administratora i hipervizora, što stvara značajne sigurnosne izazove."
  • question: "Kako povjerljivo računalstvo poboljšava sigurnost AI modela i podataka?" answer: "Povjerljivo računalstvo rješava osnovni problem izloženosti podataka osiguravajući da podaci i AI modeli ostanu kriptografski zaštićeni tijekom cijelog životnog ciklusa izvršenja. Za razliku od tradicionalnih sustava gdje su podaci u upotrebi nešifrirani, povjerljivo računalstvo koristi hardverski podržana pouzdana izvršna okruženja (TEE-ove) za šifriranje memorije. To znači da su osjetljivi podaci, težine modela i korisni tereti inferencije zaštićeni od neovlaštenog pristupa, čak i od privilegiranog host softvera ili administratora, značajno smanjujući rizik od krađe intelektualnog vlasništva i povreda podataka tijekom inferencije i obuke AI modela te osiguravajući robusnu zaštitu."
  • question: "Što su povjerljivi kontejneri (CoCo) i kako oni operacionaliziraju povjerljivo računalstvo za Kubernetes?" answer: "Povjerljivi kontejneri (CoCo) operacionaliziraju prednosti povjerljivog računalstva unutar Kubernetes okruženja. Umjesto da pokreće standardne Kubernetes podove izravno na host kernelu, CoCo omotava svaki pod u lagani, hardverski izolirani virtualni stroj (VM) koristeći Kata Containers. Ovaj pristup održava cloud-native radne tokove dok nameće snažnu izolaciju. Za AI, CoCo osigurava da vlasnički utezi modela ostaju šifrirani sve dok hardver matematički ne dokaže sigurnost enklave putem daljinske potvrde. Usluga posrednika ključeva (Key Broker Service) zatim otpušta ključeve za dešifriranje samo u ovu zaštićenu memoriju, sprječavajući izlaganje host OS-u ili hipervizoru."
  • question: "Koji su temeljni stupovi NVIDIA-ine referentne arhitekture za tvornice umjetne inteligencije nultog povjerenja?" answer: "NVIDIA-ina referentna arhitektura kombinira nekoliko ključnih komponenti za izgradnju robusnih tvornica umjetne inteligencije nultog povjerenja. Ključni stupovi uključuju Hardverski korijen povjerenja (Hardware Root of Trust), koristeći CPU TEE-ove i NVIDIA povjerljive GPU-ove za AI radna opterećenja s šifriranom memorijom; Kata Containers runtime za hardverski izolirane Kubernetes podove; Očvrsnuto mikro-gostujuće okruženje (Hardened Micro-Guest Environment) s minimalnim gostujućim OS-om za smanjenje površine napada; Uslugu potvrde (Attestation Service) za kriptografsku provjeru integriteta hardvera prije otpuštanja tajni; Životni ciklus povjerljivog radnog opterećenja (Confidential Workload Lifecycle) za sigurno povlačenje slika i implementaciju; i izvornu integraciju s Kubernetesom i GPU operatorom (Native Kubernetes and GPU Operator Integration) za besprijekorno upravljanje i implementaciju bez prepisivanja aplikacija."
  • question: "Koji sigurnosni aspekti nisu pokriveni povjerljivim kontejnerima (CoCo)?" answer: "Dok CoCo pruža snažne garancije povjerljivosti i integriteta za izvršavanje podataka i modela, ne štiti od svih vrsta napada. Konkretno, CoCo ne rješava ranjivosti aplikacija, što znači nedostatke unutar samog AI aplikacijskog koda koji bi se mogli iskoristiti. Također inherentno ne sprječava napade na dostupnost, čiji je cilj poremetiti uslugu umjesto ukrasti podatke. Nadalje, mrežna sigurnost, poput zaštite podataka u tranzitu ili osiguranja mrežnih krajnjih točaka, ostaje izvan izravnog opsega CoCo-a. Ovi aspekti zahtijevaju komplementarne sigurnosne mjere uz okvir povjerljivog računalstva za potpunu sigurnosnu poziciju."

Brzi napredak umjetne inteligencije (AI) prebacio ju je iz eksperimentalnih faza u srž poslovnih operacija. Ipak, ostaje značajna prepreka: velika većina kritičnih korporativnih podataka, uključujući visoko osjetljive medicinske kartone pacijenata, vlasnička tržišna istraživanja i neprocjenjivo naslijeđeno znanje, nalazi se izvan javnog oblaka. Integracija ovih osjetljivih informacija s AI modelima uvodi značajne probleme privatnosti i povjerenja, često usporavajući ili potpuno blokirajući usvajanje AI-ja.

Kako bi se uistinu otključao potencijal AI-ja, poduzeća grade "AI tvornice" – specijalizirane, visokoučinkovite infrastrukture dizajnirane za generiranje inteligencije u velikom opsegu. Da bi ove tvornice uspjele s osjetljivim podacima i vlasničkim modelima, moraju biti izgrađene na nepokolebljivom temelju nultog povjerenja. Ova paradigma nalaže da se niti jedan entitet, bilo korisnik, uređaj ili aplikacija, ne smije implicitno smatrati pouzdanim. Umjesto toga, svi zahtjevi za pristup su rigorozno autentificirani i autorizirani. To se postiže hardverski nametnutim pouzdanim izvršnim okruženjima (TEE-ovima) i kriptografskom potvrdom, stvarajući sigurnosnu arhitekturu koja eliminira inherentno povjerenje u temeljnu host infrastrukturu. Ovaj članak istražuje cjelovit pristup, opisujući NVIDIA-inu referentnu arhitekturu za integraciju ovog temelja nultog povjerenja u moderne AI tvornice.

Dilema povjerenja AI tvornice: Izazov s više dionika

Pomak prema implementaciji naprednih, često vlasničkih, frontier modela na zajedničkoj infrastrukturi uvodi složenu, višestruku dilemu povjerenja među ključnim dionicima u ekosustavu AI tvornice. Ovaj "kružni nedostatak povjerenja" u osnovi proizlazi iz neuspjeha tradicionalnog računalnog okruženja da šifrira podatke dok su u upotrebi.

  1. Vlasnici modela naspram pružatelja infrastrukture: Vlasnici modela ulažu znatna sredstva u razvoj vlasničkih AI modela, čije težine i algoritamska logika predstavljaju značajno intelektualno vlasništvo. Oni ne mogu implicitno vjerovati da host operativni sustav, hipervizor, pa čak ni root administrator neće pregledati, ukrasti ili izdvojiti njihove vrijedne modele kada su implementirani na zajedničkoj infrastrukturi.
  2. Pružatelji infrastrukture naspram vlasnika modela/najmoprimaca: Suprotno tome, oni koji upravljaju hardverom i Kubernetes klasterima — pružatelji infrastrukture — ne mogu slijepo vjerovati da je radno opterećenje vlasnika modela ili najmoprimca bezopasno. Postoji stalni rizik od zlonamjernog koda, pokušaja eskalacije privilegija ili kršenja sigurnosnih granica hosta ugrađenih u implementirane AI aplikacije.
  3. Najmoprimci (vlasnici podataka) naspram vlasnika modela i pružatelja infrastrukture: Vlasnici podataka, koji isporučuju osjetljive i često regulirane podatke koji pokreću AI modele, zahtijevaju robusno jamstvo da će njihove informacije ostati povjerljive. Oni ne mogu vjerovati da pružatelj infrastrukture neće pregledati njihove podatke tijekom izvršenja, nor can they be certain that the model provider won't misuse or leak the data during inference or processing.

Ovaj sveprisutni nedostatak povjerenja ističe kritičnu ranjivost: u konvencionalnom računalstvu podaci nisu šifrirani dok se aktivno obrađuju. To ostavlja osjetljive podatke i vlasničke modele izloženima u čistom tekstu unutar memorije i dostupnima sistemskim administratorima, stvarajući neprihvatljiv sigurnosni rizik za moderne implementacije AI-ja.

Povjerljivo računalstvo i kontejneri: Temelj AI povjerenja

Povjerljivo računalstvo (Confidential Computing) pojavljuje se kao ključno rješenje za ovu duboku dilemu povjerenja. Ono fundamentalno mijenja sigurnosni krajolik osiguravajući da podaci i modeli ostanu kriptografski zaštićeni tijekom cijelog životnog ciklusa izvršenja, ne samo u mirovanju ili u tranzitu. To se postiže korištenjem hardverski podržanih pouzdanih izvršnih okruženja (TEE-ova) koja stvaraju izolirane, šifrirane memorijske regije gdje se osjetljive računalne operacije mogu odvijati bez izloženosti host operativnom sustavu ili hipervizoru.

Dok povjerljivo računalstvo pruža ključnu hardversku osnovu, povjerljivi kontejneri (CoCo) operacionaliziraju ovu sigurnosnu paradigmu specifično za Kubernetes okruženja. CoCo omogućuje pokretanje Kubernetes podova unutar ovih hardverski podržanih TEE-ova bez potrebe za bilo kakvim promjenama ili prepisivanjem koda aplikacije. Umjesto dijeljenja host kernela, svaki pod je transparentno inkapsuliran unutar laganog, hardverski izoliranog virtualnog stroja (VM) kojeg pokreće Kata Containers. Ovaj inovativni pristup čuva postojeće cloud-native radne tokove i alate dok nameće stroge granice izolacije, podižući sigurnost bez ugrožavanja operativne agilnosti.

Za pružatelje modela, prijetnja krađe vlasničkih utega modela je od najveće važnosti. CoCo to izravno rješava učinkovitim uklanjanjem host operativnog sustava i hipervizora iz kritične jednadžbe povjerenja. Kada se AI model implementira unutar povjerljivog kontejnera, on ostaje šifriran. Tek nakon što hardver matematički potvrdi integritet i sigurnost TEE enklave kroz proces poznat kao daljinska potvrda, specijalizirana usluga posrednika ključeva (Key Broker Service - KBS) otpušta potrebni ključ za dešifriranje. Ovaj ključ se zatim isporučuje isključivo u zaštićenu memoriju unutar TEE-a, osiguravajući da težine modela nikada nisu izložene u čistom tekstu host okruženju, čak ni visoko privilegiranim administratorima.

NVIDIA-ina referentna arhitektura nultog povjerenja za sigurne AI tvornice

NVIDIA je, u suradnji s open-source zajednicom Confidential Containers, razvila sveobuhvatnu referentnu arhitekturu za CoCo softverski stog. Ovaj nacrt definira standardizirani, cjeloviti pristup izgradnji AI tvornica nultog povjerenja na bare-metal infrastrukturi. On pomno opisuje kako integrirati najsuvremenije hardverske i softverske komponente za sigurno implementiranje frontier modela, štiteći njihove osjetljive podatke i intelektualno vlasništvo od izloženosti host okruženju.

Temeljni stupovi ove robusne arhitekture su:

StupOpis
Hardverski korijen povjerenjaKoristi pouzdana izvršna okruženja (TEE-ove) procesora uparena s povjerljivim NVIDIA GPU-ovima (npr. NVIDIA Hopper, NVIDIA Blackwell) za hardverski ubrzana, memorijski šifrirana AI radna opterećenja.
Kata Containers RuntimeOmotava standardne Kubernetes podove u lagane, hardverski izolirane pomoćne VM-ove (UVM-ove), pružajući snažnu izolaciju umjesto dijeljenja host kernela.
Očvrsnuto mikro-gostujuće okruženjeKoristi minimalni gostujući OS bez distribucije (distro-less), s usječenim korijenskim datotečnim sustavom i NVIDIA Runtime Containerom (NVRC) za siguran init sustav, drastično smanjujući površinu napada VM-a.
Usluga potvrdeKriptografski provjerava integritet hardverskog okruženja prije otpuštanja osjetljivih ključeva za dešifriranje modela ili tajni gostu, često uključujući uslugu posrednika ključeva (KBS).
Životni ciklus povjerljivog radnog opterećenjaOmogućuje sigurno povlačenje šifriranih i potpisanih slika (kontejnera, modela, artefakata) izravno u šifriranu TEE memoriju, sprječavajući izloženost u mirovanju ili u tranzitu, te omogućavajući detaljne politike sučelja.
Izvorna integracija s Kubernetesom i GPU operatoromOmogućuje upravljanje cijelim stekom pomoću standardnih Kubernetes primitiva i NVIDIA GPU operatora, dopuštajući 'lift-and-shift' implementaciju AI aplikacija bez prepisivanja.

Ova arhitektura osigurava da AI radna opterećenja imaju koristi od performansi NVIDIA GPU-ova dok su inkapsulirana unutar kriptografski osiguranih granica.

Razumijevanje CoCo modela prijetnji i granica povjerenja u AI sigurnosti

Povjerljivi kontejneri (CoCo) djeluju pod rigorozno definiranim modelom prijetnji. Unutar ovog modela, cijeli infrastrukturni sloj – uključujući host operativni sustav, hipervizor i potencijalno sam pružatelj oblaka – tretira se kao inherentno nepouzdan. Ova temeljna pretpostavka kritična je za pristup nultog povjerenja.

Umjesto da se oslanja na budnost ili integritet administratora infrastrukture za provedbu sigurnosnih kontrola, CoCo strateški pomiče primarnu granicu povjerenja na hardverski podržana pouzdana izvršna okruženja (TEE-ove). To znači da se AI radna opterećenja izvršavaju unutar šifriranih, virtualiziranih okruženja gdje su sadržaji memorije nedešifrirani za host. Ključno je da se osjetljive tajne, poput ključeva za dešifriranje modela, otpuštaju tek nakon što je izvršno okruženje kriptografski dokazalo svoj integritet i autentičnost putem daljinske potvrde.

Međutim, ključno je razumjeti precizan opseg ove zaštite – što CoCo štiti, a što ostaje izvan njegovog dosega.

Što CoCo štiti

CoCo pruža robusna jamstva za povjerljivost i integritet tijekom izvršavanja AI radnih opterećenja:

  1. Zaštita podataka i modela: Šifriranje memorije je kamen temeljac, sprječavajući host okruženje da pristupi osjetljivim podacima, vlasničkim težinama modela ili inferencijskim teretima dok radno opterećenje aktivno radi unutar TEE-a.
  2. Integritet izvršenja: Daljinska potvrda igra kritičnu ulogu provjeravajući da se radno opterećenje doista izvodi unutar pouzdanog, nekompromitiranog okruženja s očekivanim softverskim mjerenjima prije nego što se oslobode osjetljive tajne ili ključevi za dešifriranje modela.
  3. Sigurno rukovanje slikama i pohranom: Slike kontejnera se povlače, provjeravaju i raspakiraju izravno unutar sigurnog, šifriranog gostujućeg okruženja. To osigurava da host infrastruktura ne može pregledati niti mijenjati kod aplikacije ili vrijedne artefakte modela u bilo kojem trenutku.
  4. Zaštita od pristupa na razini hosta: Arhitektura učinkovito štiti radna opterećenja od privilegiranih host radnji. Administrativni alati za otklanjanje pogrešaka, inspekcija memorije ili struganje diska od strane hosta ne mogu otkriti povjerljivi sadržaj pokrenutog AI radnog opterećenja.

Što CoCo ne štiti

Iako vrlo učinkoviti, određeni rizici i vektori napada padaju izvan inherentnog opsega CoCo arhitekture:

  1. Ranjivosti aplikacija: CoCo osigurava provjereno i povjerljivo izvršno okruženje, ali inherentno ne krpa niti sprječava ranjivosti unutar samog koda AI aplikacije. Ako aplikacija ima grešku koja dovodi do curenja podataka ili netočnog procesiranja, CoCo to ne može ublažiti.
  2. Napadi na dostupnost: Primarni fokus CoCo-a je povjerljivost i integritet. Ne sprječava izravno napade uskraćivanja usluge (DoS) ili druge napade na dostupnost čiji je cilj poremetiti uslugu, a ne ukrasti podatke. Mjere poput redundantne infrastrukture i zaštite na razini mreže i dalje su potrebne.
  3. Mrežna sigurnost: Podaci u tranzitu, sigurnost mrežnih krajnjih točaka i ranjivosti u mrežnim protokolima spadaju izvan izravne zaštite TEE-a. Sigurni komunikacijski kanali (npr. TLS/SSL) i robusna mrežna segmentacija komplementarni su zahtjevi. Za dublji uvid u osiguranje umjetne inteligencije, razmislite o istraživanju strategija za suzbijanje zlonamjerne upotrebe umjetne inteligencije.

Izgradnja budućnosti sigurne umjetne inteligencije

Put AI-ja od eksperimentiranja do proizvodnje zahtijeva promjenu paradigme u sigurnosti. Poduzeća više ne samo da implementiraju modele; oni grade složene AI tvornice koje proizvode inteligenciju u velikom opsegu. NVIDIA-ina arhitektura nultog povjerenja, pokretana povjerljivim kontejnerima i hardverski podržanim TEE-ovima, pruža kritičnu osnovu za ovu novu eru. Pedantnim rješavanjem inherentnih dilema povjerenja i pružanjem robusnih kriptografskih jamstava, organizacije mogu s povjerenjem implementirati vlasničke modele i obrađivati osjetljive podatke, ubrzavajući usvajanje AI-ja bez ugrožavanja sigurnosti. Ovaj pristup ne samo da štiti intelektualno vlasništvo i privatne informacije, već i potiče novu razinu povjerenja kroz cijeli životni ciklus razvoja i implementacije AI-ja. Kako AI nastavlja evoluirati, integracija takvih naprednih sigurnosnih okvira bit će od najveće važnosti za ostvarivanje njenog punog, transformativnog potencijala. Štoviše, stalna strateška suradnja između industrijskih lidera, poput produbljivanja strateške suradnje AWS-a i NVIDIA-e za ubrzanje AI-ja od pilot projekta do proizvodnje, naglašava predanost industrije napredovanju sigurnih i skalabilnih AI rješenja.

Često postavljana pitanja

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli