Code Velocity
AI сигурност

Zero-Trust AI фабрики: Защита на поверителни AI работни натоварвания с TEEs

·7 мин четене·NVIDIA·Оригинален източник
Сподели
Диаграма, илюстрираща архитектура с нулево доверие, защитаваща поверителни AI работни натоварвания в AI фабрики.

Бързият напредък на AI го изстреля от експериментални етапи в сърцето на корпоративните операции. И все пак, остава значително препятствие: огромното мнозинство от критични корпоративни данни, включително силно чувствителни медицински досиета, собствени пазарни проучвания и безценни наследени знания, се намират извън публичния облак. Интегрирането на тази чувствителна информация с AI модели въвежда съществени опасения за поверителността и доверието, често забавяйки или направо блокирайки приемането на AI.

За да отключат истински потенциала на AI, предприятията изграждат "AI фабрики" – специализирани, високопроизводителни инфраструктури, предназначени да генерират интелигентност в мащаб. За да успеят тези фабрики с чувствителни данни и собствени модели, те трябва да бъдат изградени върху непоколебима zero-trust основа. Тази парадигма диктува, че никое образувание, било то потребител, устройство или приложение, не е имплицитно доверено. Вместо това, всички заявки за достъп са строго удостоверени и оторизирани. Това се постига чрез хардуерно наложени Доверени среди за изпълнение (TEEs) и криптографско удостоверяване, създавайки архитектура за сигурност, която елиминира присъщото доверие в основната хост инфраструктура. Тази статия изследва цялостен подход, очертавайки референтната архитектура на NVIDIA за интегриране на тази zero-trust основа в модерни AI фабрики.

Дилемата на доверието в AI фабриките: Предизвикателство с множество заинтересовани страни

Преходът към внедряване на усъвършенствани гранични модели, често собственически, върху споделена инфраструктура въвежда сложна, многостранна дилема на доверието сред ключовите заинтересовани страни в екосистемата на AI фабриките. Тази "кръгова липса на доверие" фундаментално произтича от неспособността на традиционната изчислителна среда да криптира данните, докато те се използват.

  1. Собственици на модели срещу Доставчици на инфраструктура: Собствениците на модели инвестират сериозно в разработването на собствени AI модели, чиито тегла и алгоритмична логика представляват значителна интелектуална собственост. Те не могат имплицитно да се доверят, че хост операционната система, хипервайзорът или дори root администраторът няма да инспектират, откраднат или извлекат техните ценни модели, когато са внедрени в споделена инфраструктура.
  2. Доставчици на инфраструктура срещу Собственици/Наематели на модели: Обратно, тези, които управляват и експлоатират хардуера и Kubernetes клъстерите – доставчиците на инфраструктура – не могат сляпо да се доверят, че работната натовареност на собственик на модел или наемател е доброкачествена. Съществува постоянен риск от злонамерен код, опити за ескалация на привилегии или нарушения на границите на сигурността на хоста, вградени в внедрени AI приложения.
  3. Наематели (Собственици на данни) срещу Собственици на модели и Доставчици на инфраструктура: Собствениците на данни, които предоставят чувствителните и често регулирани данни, които захранват AI моделите, изискват надеждна гаранция, че тяхната информация остава поверителна. Те не могат да се доверят, че доставчикът на инфраструктура няма да преглежда данните им по време на изпълнение, нито могат да бъдат сигурни, че доставчикът на модел няма да злоупотреби или изтече данните по време на инференция или обработка.

Тази широкоразпространена липса на доверие подчертава критична уязвимост: в конвенционалните изчисления данните не са криптирани, докато се обработват активно. Това оставя чувствителни данни и собствени модели изложени в ясен текст в паметта и достъпни за системни администратори, създавайки неприемлив рисков профил за модерни AI внедрявания.

Поверителни изчисления и контейнери: Основата на доверието в AI

Поверителните изчисления се очертават като ключово решение на тази дълбока дилема на доверието. Те фундаментално променят пейзажа на сигурността, като гарантират, че данните и моделите остават криптографски защитени през целия им жизнен цикъл на изпълнение, не само в покой или в транзит. Това се постига чрез използване на хардуерно подкрепени Доверени среди за изпълнение (TEEs), които създават изолирани, криптирани области на паметта, където могат да се извършват чувствителни изчисления без излагане на хост операционната система или хипервайзора.

Докато поверителните изчисления осигуряват решаващата хардуерна основа, Поверителните контейнери (CoCo) операционализират тази парадигма за сигурност специално за Kubernetes среди. CoCo позволява на Kubernetes подове да работят в тези хардуерно подкрепени TEEs, без да изискват промени или пренаписване на кода на приложението. Вместо да споделя ядрото на хоста, всеки под е прозрачно капсулиран в лека, хардуерно изолирана виртуална машина (VM), задвижвана от Kata Containers. Този иновативен подход запазва съществуващите облачно-родни работни потоци и инструменти, като същевременно налага строги граници на изолация, повишавайки сигурността, без да компрометира оперативната гъвкавост.

За доставчиците на модели заплахата от кражба на тегла на собствени модели е от първостепенно значение. CoCo пряко се справя с това, като ефективно премахва хост операционната система и хипервайзора от критичното уравнение на доверието. Когато AI модел е внедрен в Поверителен контейнер, той остава криптиран. Едва след като хардуерът математически потвърди целостта и сигурността на анклава на TEE чрез процес, известен като дистанционно удостоверяване, специализирана услуга Key Broker Service (KBS) освобождава необходимия ключ за декриптиране. Този ключ след това се доставя изключително в защитената памет в TEE, гарантирайки, че теглата на модела никога не се излагат в ясен текст на хост средата, дори на високопривилегировани администратори.

Референтна архитектура на NVIDIA за нулево доверие за сигурни AI фабрики

NVIDIA, в сътрудничество с общността с отворен код Confidential Containers, разработи цялостна референтна архитектура за софтуерния стек на CoCo. Този план определя стандартизиран, цялостен подход за изграждане на zero-trust AI фабрики върху bare-metal инфраструктура. Той щателно описва как да се интегрират авангардни хардуерни и софтуерни компоненти за сигурно внедряване на гранични модели, защитавайки както чувствителните им данни, така и интелектуалната собственост от излагане на хост средата.

Основните стълбове на тази надеждна архитектура са:

СтълбОписание
Хардуерен корен на довериеИзползва CPU Trusted Execution Environments (TEEs), сдвоени с поверителни графични процесори на NVIDIA (напр. NVIDIA Hopper, NVIDIA Blackwell) за хардуерно ускорени, криптирани в паметта AI работни натоварвания.
Kata Containers среда за изпълнениеОбвива стандартни Kubernetes подове в леки, хардуерно изолирани помощни виртуални машини (UVMs), осигурявайки силна изолация вместо споделяне на хост ядрото.
Закалена микро-гост средаИзползва минимална гост операционна система без дистрибуция, включваща издялана коренова файлова система и NVIDIA Runtime Container (NVRC) за сигурна инициализация на системата, драстично намалявайки повърхността за атака на виртуалната машина.
Услуга за удостоверяванеКриптографски проверява целостта на хардуерната среда, преди да освободи чувствителни ключове за декриптиране на модела или тайни към госта, често включваща Key Broker Service (KBS).
Жизнен цикъл на поверителни работни натоварванияУлеснява сигурното изтегляне на криптирани и подписани изображения (контейнери, модели, артефакти) директно в криптирана TEE памет, предотвратявайки излагане в покой или в транзит и позволявайки подробни политики за интерфейс.
Нативна Kubernetes и GPU Operator интеграцияПозволява управление на целия стек, използвайки стандартни Kubernetes примитиви и NVIDIA GPU Operator, позволявайки внедряване на AI приложения чрез 'lift-and-shift' без пренаписване.

Тази архитектура гарантира, че AI работните натоварвания се възползват от производителността на графичните процесори на NVIDIA, като същевременно са капсулирани в криптографски защитени граници.

Разбиране на модела на заплаха на CoCo и границите на доверието в AI сигурността

Поверителните контейнери (CoCo) работят под строго дефиниран модел на заплаха. В рамките на този модел целият инфраструктурен слой – включително хост операционната система, хипервайзора и потенциално самия доставчик на облак – се третира като по своята същност недоверен. Това фундаментално предположение е от решаващо значение за подхода на нулево доверие.

Вместо да разчита на бдителността или целостта на администраторите на инфраструктурата за налагане на контрол на сигурността, CoCo стратегически измества основната граница на доверие към хардуерно подкрепени Доверени среди за изпълнение (TEEs). Това означава, че AI работните натоварвания се изпълняват в криптирани, виртуализирани среди, където съдържанието на паметта е недостъпно за хоста. От решаващо значение, чувствителни тайни, като ключове за декриптиране на модела, се освобождават само след като средата за изпълнение е криптографски доказала своята цялост и автентичност чрез дистанционно удостоверяване.

Жизненоважно е обаче да се разбере прецизният обхват на тази защита – какво CoCo защитава и какво остава извън неговия обхват.

Какво защитава CoCo

CoCo предоставя надеждни гаранции както за поверителност, така и за цялост по време на изпълнението на AI работни натоварвания:

  1. Защита на данни и модели: Криптирането на паметта е крайъгълен камък, предотвратяващ достъпа на хост средата до чувствителни данни, тегла на собствени модели или полезни данни за инференция, докато работната натовареност активно работи в TEE.
  2. Цялост на изпълнението: Дистанционното удостоверяване играе критична роля, като проверява дали работната натовареност наистина работи в доверена, некомпрометирана среда с очаквани софтуерни измервания, преди да бъдат освободени чувствителни тайни или ключове за декриптиране на модела.
  3. Сигурно обработване на изображения и съхранение: Изображенията на контейнери се изтеглят, проверяват и разархивират директно в сигурната, криптирана гост среда. Това гарантира, че хост инфраструктурата не може да инспектира или подправя кода на приложението или ценни артефакти на модела в нито един момент.
  4. Защита от достъп на ниво хост: Архитектурата ефективно предпазва работните натоварвания от привилегировани действия на хоста. Административни инструменти за отстраняване на грешки, инспектиране на паметта или извличане на данни от диска от хоста не могат да изложат поверителното съдържание на работещата AI работна натовареност.

Какво CoCo не защитава

Въпреки че е изключително ефективно, някои рискове и вектори на атака попадат извън присъщия обхват на архитектурата на CoCo:

  1. Уязвимости на приложенията: CoCo осигурява проверената и поверителна среда за изпълнение, но не коригира или предотвратява по същество уязвимости в самия код на AI приложението. Ако дадено приложение има грешка, която води до изтичане на данни или неправилна обработка, CoCo не може да смекчи това.
  2. Атаки за наличност: Основният фокус на CoCo е поверителността и целостта. То не предотвратява пряко атаки за отказ на услуга (DoS) или други атаки за наличност, които целят да нарушат услугата, а не да откраднат данни. Мерки като излишна инфраструктура и защита на мрежово ниво все още са необходими.
  3. Мрежова сигурност: Данните в транзит, сигурността на мрежовите крайни точки и уязвимостите в мрежовите протоколи попадат извън пряката защита на TEE. Сигурните комуникационни канали (напр. TLS/SSL) и надеждното мрежово сегментиране са допълнителни изисквания. За по-задълбочени прозрения относно защитата на AI, помислете за проучване на стратегии за предотвратяване на злонамерени употреби на AI.

Изграждане на бъдещето на сигурния AI

Пътуването на AI от експериментиране към производство изисква промяна на парадигмата в сигурността. Предприятията вече не просто внедряват модели; те изграждат сложни AI фабрики, които произвеждат интелигентност в мащаб. Zero-trust архитектурата на NVIDIA, задвижвана от Поверителни контейнери и хардуерно подкрепени TEEs, осигурява критичната основа за тази нова ера. Чрез щателно справяне с присъщите дилеми на доверието и предоставяне на надеждни криптографски гаранции, организациите могат уверено да внедряват собствени модели и да обработват чувствителни данни, ускорявайки приемането на AI, без да компрометират сигурността. Този подход не само защитава интелектуалната собственост и личната информация, но също така насърчава ново ниво на доверие през целия жизнен цикъл на разработка и внедряване на AI. Тъй като AI продължава да се развива, интегрирането на такива напреднали рамки за сигурност ще бъде от първостепенно значение за реализирането на пълния му, трансформиращ потенциал. Освен това, текущото стратегическо сътрудничество между лидери в индустрията, като AWS и NVIDIA задълбочават стратегическото си сътрудничество за ускоряване на AI, подчертава ангажимента на индустрията за напредък в сигурните и мащабируеми AI решения.

Често задавани въпроси

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели