Code Velocity
AI பாதுகாப்பு

ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலைகள்: TEEகள் மூலம் ரகசியமான AI பணிச்சுமைகளைப் பாதுகாத்தல்

·7 நிமிட வாசிப்பு·NVIDIA·அசல் மூலம்
பகிர்
AI தொழிற்சாலைகளில் ரகசியமான AI பணிச்சுமைகளைப் பாதுகாக்கும் ஜீரோ-ட்ரஸ்ட் கட்டமைப்பை விளக்கும் வரைபடம்.

title: "ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலைகள்: TEEகள் மூலம் ரகசியமான AI பணிச்சுமைகளைப் பாதுகாத்தல்" slug: "building-a-zero-trust-architecture-for-confidential-ai-factories" date: "2026-03-25" lang: "ta" source: "https://developer.nvidia.com/blog/building-a-zero-trust-architecture-for-confidential-ai-factories/" category: "AI பாதுகாப்பு" keywords:

  • ஜீரோ-ட்ரஸ்ட்
  • AI பாதுகாப்பு
  • ரகசியமான கம்ப்யூட்டிங்
  • நம்பகமான செயலாக்கச் சூழல்கள்
  • TEEகள்
  • NVIDIA
  • AI தொழிற்சாலைகள்
  • Kubernetes
  • ரகசியமான கண்டெய்னர்கள்
  • தரவுப் பாதுகாப்பு
  • மாதிரிப் பாதுகாப்பு
  • தொலைநிலை அங்கீகாரம் meta_description: "NVIDIA இன் குறிப்பு அமைப்பைப் பயன்படுத்தி, ரகசியமான கண்டெய்னர்கள் மற்றும் TEEகள் மூலம் வலுவான AI பாதுகாப்பு மற்றும் தரவுப் பாதுகாப்பிற்காக ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலைகளை எவ்வாறு உருவாக்குவது என்பதை ஆராயுங்கள்." image: "/images/articles/building-a-zero-trust-architecture-for-confidential-ai-factories.png" image_alt: "AI தொழிற்சாலைகளில் ரகசியமான AI பணிச்சுமைகளைப் பாதுகாக்கும் ஜீரோ-ட்ரஸ்ட் கட்டமைப்பை விளக்கும் வரைபடம்." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "ஒரு ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலை என்றால் என்ன, நிறுவனங்களுக்கு அது ஏன் முக்கியம்?" answer: 'ஒரு ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலை என்பது, "ஒருபோதும் நம்பாதே, எப்போதும் சரிபார்" என்ற கொள்கையின் அடிப்படையில், பெருமளவில் நுண்ணறிவை உற்பத்தி செய்ய வடிவமைக்கப்பட்ட ஒரு உயர்-செயல்திறன் உள்கட்டமைப்பு ஆகும். இது வன்பொருள்-அமலாக்கப்பட்ட நம்பகமான செயலாக்கச் சூழல்கள் (TEEs) மற்றும் குறியாக்க அங்கீகாரம் ஆகியவற்றைப் பயன்படுத்தி, அடிப்படை ஹோஸ்ட் உள்கட்டமைப்பில் உள்ள உள்ளார்ந்த நம்பிக்கையை நீக்குகிறது. நோயாளிகளின் பதிவுகள் அல்லது சந்தை ஆராய்ச்சி போன்ற முக்கியமான தரவுகள் மற்றும் தனியுரிம AI மாதிரிகளைக் கையாளும் நிறுவனங்களுக்கு இது மிகவும் முக்கியமானது, ஏனெனில் இது தரவு வெளிப்பாடு, அறிவுசார் சொத்துத் திருட்டு மற்றும் தனியுரிமை கவலைகள் போன்ற அபாயங்களைக் குறைக்கிறது, இதன் மூலம் AI உற்பத்தி சூழல்களில் ஏற்றுக்கொள்ளப்படுவதை துரிதப்படுத்துகிறது. அதிக ரகசியத் தகவல்களைப் பாதுகாப்பாகச் செயல்படுத்துவதே இதன் முக்கியத்துவமாகும்.'
  • question: "பகிரப்பட்ட உள்கட்டமைப்பில் AI மாதிரிகளைப் பயன்படுத்துவதில் உள்ள 'நம்பிக்கைத் தடுமாற்றம்' என்ன?" answer: 'AI பயன்படுத்தும் போது ஏற்படும் நம்பிக்கைத் தடுமாற்றம், மாதிரி உரிமையாளர்கள், உள்கட்டமைப்பு வழங்குநர்கள் மற்றும் தரவு உரிமையாளர்கள் ஆகியோரிடையே உள்ள முரண்பாடான நம்பிக்கைத் தேவைகளிலிருந்து எழுகிறது. மாதிரி உரிமையாளர்கள் உள்கட்டமைப்பு வழங்குநர்களிடமிருந்து அறிவுசார் சொத்து திருடப்படும் என்று அஞ்சுகிறார்கள்; உள்கட்டமைப்பு வழங்குநர்கள் மாதிரி உரிமையாளர்களிடமிருந்து தீங்கிழைக்கும் பணிச்சுமைகளைப் பற்றி கவலைப்படுகிறார்கள்; மேலும் தரவு உரிமையாளர்கள் உள்கட்டமைப்பு அல்லது மாதிரி வழங்குநர்கள் யாரும் தங்களின் முக்கியமான தரவுகளைப் பயன்படுத்துவதோ அல்லது வெளிப்படுத்துவதோ இல்லை என்ற உத்தரவாதத்தை விரும்புகிறார்கள். இந்தச் சுழற்சிமுறை நம்பிக்கைக் குறைபாடு, பாரம்பரிய கம்ப்யூட்டிங் சூழல்களில் தரவு பயன்பாட்டில் இருக்கும்போது குறியாக்கம் செய்யப்படாததே முக்கியக் காரணம், இது கணினி நிர்வாகிகளாலும் ஹைப்பர்வைசர்களாலும் ஆய்வு செய்யப்படக்கூடிய வாய்ப்பை ஏற்படுத்துகிறது, இதனால் குறிப்பிடத்தக்க பாதுகாப்பு சவால்கள் உருவாகின்றன.'
  • question: "ரகசியமான கம்ப்யூட்டிங், AI மாதிரிகள் மற்றும் தரவுகளின் பாதுகாப்பை எவ்வாறு மேம்படுத்துகிறது?" answer: 'ரகசியமான கம்ப்யூட்டிங் தரவு வெளிப்பாட்டின் முக்கியப் பிரச்சினையை, தரவு மற்றும் AI மாதிரிகள் அவற்றின் முழு செயலாக்க வாழ்க்கைச் சுழற்சி முழுவதும் குறியாக்க ரீதியாகப் பாதுகாக்கப்படுவதை உறுதி செய்வதன் மூலம் தீர்க்கிறது. பயன்பாட்டில் உள்ள தரவு குறியாக்கம் செய்யப்படாத பாரம்பரிய அமைப்புகளைப் போலல்லாமல், ரகசியமான கம்ப்யூட்டிங் வன்பொருள் ஆதரவுடைய நம்பகமான செயலாக்கச் சூழல்களை (TEEs) நினைவகத்தை குறியாக்கம் செய்யப் பயன்படுத்துகிறது. இதன் பொருள், முக்கியமான தரவு, மாதிரி எடைகள் மற்றும் அனுமானப் பணிச்சுமைகள் அங்கீகரிக்கப்படாத அணுகலில் இருந்து பாதுகாக்கப்படுகின்றன, சலுகை பெற்ற ஹோஸ்ட் மென்பொருள் அல்லது நிர்வாகிகளிடமிருந்தும் கூட, AI மாதிரி அனுமானம் மற்றும் பயிற்சியின் போது அறிவுசார் சொத்து திருட்டு மற்றும் தரவு மீறல்களின் அபாயத்தை கணிசமாகக் குறைத்து, வலுவான பாதுகாப்பை உறுதி செய்கிறது.'
  • question: "ரகசியமான கண்டெய்னர்கள் (CoCo) என்றால் என்ன, அவை Kubernetes-க்கு ரகசியமான கம்ப்யூட்டிங்கை எவ்வாறு செயல்படுத்துகின்றன?" answer: 'ரகசியமான கண்டெய்னர்கள் (CoCo) Kubernetes சூழல்களில் ரகசியமான கம்ப்யூட்டிங்கின் நன்மைகளைச் செயல்படுத்துகின்றன. தரமான Kubernetes Pod-களை ஹோஸ்ட் கர்னலில் நேரடியாக இயக்குவதற்குப் பதிலாக, CoCo ஒவ்வொரு Pod-ஐயும் ஒரு இலகுரக, வன்பொருள்-தனிமைப்படுத்தப்பட்ட விர்ச்சுவல் மெஷினில் (VM) Kata Containers ஐப் பயன்படுத்தி மூடுகிறது. இந்த அணுகுமுறை கிளவுட்-நேட்டிவ் பணிப்பாய்வுகளைப் பராமரிக்கும் அதே வேளையில் வலுவான தனிமைப்படுத்தலைச் செயல்படுத்துகிறது. AI-ஐப் பொறுத்தவரை, தொலைநிலை அங்கீகாரம் மூலம் வன்பொருள் என்க்ளேவின் பாதுகாப்பை கணிதரீதியாக நிரூபிக்கும் வரை தனியுரிம மாதிரி எடைகள் குறியாக்கம் செய்யப்பட்டிருப்பதை CoCo உறுதி செய்கிறது. ஒரு Key Broker Service பின்னர் மறைகுறியாக்க சாவிகளை இந்தப் பாதுகாக்கப்பட்ட நினைவகத்தில் மட்டுமே வெளியிடுகிறது, இது ஹோஸ்ட் OS அல்லது ஹைப்பர்வைசருக்கு வெளிப்படுவதைத் தடுக்கிறது.'
  • question: "ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலைகளுக்கான NVIDIA இன் குறிப்பு கட்டமைப்பின் முக்கியத் தூண்கள் யாவை?" answer: 'NVIDIA இன் குறிப்பு கட்டமைப்பு, வலுவான ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலைகளை உருவாக்க பல முக்கியமான கூறுகளை ஒருங்கிணைக்கிறது. முக்கியத் தூண்களில் Hardware Root of Trust, CPU TEEகள் மற்றும் NVIDIA ரகசிய GPUகளைப் (எ.கா., NVIDIA Hopper, NVIDIA Blackwell) பயன்படுத்தி நினைவகம் குறியாக்கம் செய்யப்பட்ட AI பணிச்சுமைகளுக்கான ஆதரவு; வன்பொருள்-தனிமைப்படுத்தப்பட்ட Kubernetes Pod-களுக்கான Kata Containers runtime; தாக்குதல் மேற்பரப்பைக் குறைக்க ஒரு சிறிய விருந்தினர் OS உடன் ஒரு Hardened Micro-Guest Environment; ரகசியங்களை வெளியிடுவதற்கு முன் வன்பொருள் ஒருமைப்பாட்டை குறியாக்க ரீதியாகச் சரிபார்க்க ஒரு Attestation Service; பாதுகாப்பான படங்களைப் பெறுவதற்கும் பயன்படுத்துவதற்கும் ஒரு Confidential Workload Lifecycle; மற்றும் பயன்பாடுகளை மீண்டும் எழுதாமல் தடையற்ற மேலாண்மை மற்றும் பயன்பாட்டிற்கான Native Kubernetes மற்றும் GPU Operator Integration ஆகியவை அடங்கும்.'
  • question: "ரகசியமான கண்டெய்னர்கள் (CoCo) மூலம் எந்தப் பாதுகாப்பு அம்சங்கள் கவனிக்கப்படுவதில்லை?" answer: 'CoCo தரவு மற்றும் மாதிரி செயலாக்கத்திற்கான வலுவான ரகசியத்தன்மை மற்றும் ஒருமைப்பாடு உத்தரவாதங்களை வழங்கினாலும், அது அனைத்து வகையான தாக்குதல்களிலிருந்தும் பாதுகாக்காது. குறிப்பாக, CoCo பயன்பாட்டு பாதிப்புகளைக் கையாளவில்லை, அதாவது AI பயன்பாட்டு குறியீட்டிற்குள் உள்ள பாதிப்புகள் பயன்படுத்தப்படலாம். தரவைத் திருடுவதை விட சேவையைப் பாதிப்பதை நோக்கமாகக் கொண்ட கிடைக்கும் தன்மை தாக்குதல்களையும் இது இயல்பாகத் தடுக்காது. மேலும், பரிமாற்றத்தில் உள்ள தரவைப் பாதுகாப்பது அல்லது நெட்வொர்க் இறுதிப் புள்ளிகளைப் பாதுகாப்பது போன்ற நெட்வொர்க் பாதுகாப்பு, CoCo இன் நேரடி நோக்கத்திற்கு வெளியே உள்ளது. இந்த அம்சங்களுக்கு, முழுமையான பாதுகாப்பு நிலைக்கு ரகசியமான கம்ப்யூட்டிங் கட்டமைப்போடு கூடுதலாகப் பாதுகாப்பு நடவடிக்கைகள் தேவைப்படுகின்றன.'

AI இன் விரைவான முன்னேற்றம், அதைச் சோதனை நிலைகளிலிருந்து நிறுவனச் செயல்பாடுகளின் மையத்திற்கு கொண்டு வந்துள்ளது. இருப்பினும், ஒரு குறிப்பிடத்தக்கத் தடை உள்ளது: மிகவும் முக்கியமான நிறுவனத் தரவுகளில் பெரும் பகுதி, அதாவது மிகவும் முக்கியமான நோயாளிகளின் பதிவுகள், தனியுரிம சந்தை ஆராய்ச்சி மற்றும் விலைமதிப்பற்ற பாரம்பரிய அறிவு ஆகியவை பொதுக் கிளவுடுக்கு வெளியே உள்ளன. இந்த முக்கியமான தகவல்களை AI மாதிரிகளுடன் ஒருங்கிணைப்பது குறிப்பிடத்தக்க தனியுரிமை மற்றும் நம்பிக்கைக் கவலைகளை ஏற்படுத்துகிறது, இது பெரும்பாலும் AI ஐ ஏற்றுக்கொள்வதைத் தாமதப்படுத்துகிறது அல்லது முற்றிலும் தடுக்கிறது.

AI இன் திறனை முழுமையாகப் பயன்படுத்த, நிறுவனங்கள் "AI தொழிற்சாலைகளை" உருவாக்குகின்றன — இவை பெருமளவில் நுண்ணறிவை உருவாக்க வடிவமைக்கப்பட்ட சிறப்பு வாய்ந்த, உயர்-செயல்திறன் உள்கட்டமைப்புகள். இந்தத் தொழிற்சாலைகள் முக்கியமான தரவு மற்றும் தனியுரிம மாதிரிகளுடன் வெற்றிபெற, அவை அசைக்க முடியாத ஜீரோ-ட்ரஸ்ட் அடிப்படையின் மீது கட்டப்பட வேண்டும். இந்தப் கோட்பாடு, பயனர், சாதனம் அல்லது பயன்பாடு என எந்த ஒரு நிறுவனமும் இயல்பாக நம்பப்படக் கூடாது என்று கட்டளையிடுகிறது. மாறாக, அனைத்து அணுகல் கோரிக்கைகளும் கடுமையாக அங்கீகரிக்கப்பட்டு அங்கீகரிக்கப்படுகின்றன. இது வன்பொருள்-அமலாக்கப்பட்ட நம்பகமான செயலாக்கச் சூழல்கள் (TEEs) மற்றும் குறியாக்க அங்கீகாரம் மூலம் அடையப்படுகிறது, இது அடிப்படை ஹோஸ்ட் உள்கட்டமைப்பில் உள்ள உள்ளார்ந்த நம்பிக்கையை நீக்கும் ஒரு பாதுகாப்பு கட்டமைப்பை உருவாக்குகிறது. இந்தக் கட்டுரை, இந்த ஜீரோ-ட்ரஸ்ட் அடிப்படையை நவீன AI தொழிற்சாலைகளில் ஒருங்கிணைப்பதற்கான NVIDIA இன் குறிப்பு கட்டமைப்பைக் கோடிட்டுக் காட்டும் ஒரு முழு-ஸ்டாக் அணுகுமுறையை ஆராய்கிறது.

AI தொழிற்சாலை நம்பிக்கை சிக்கல்: ஒரு பல-பங்குதாரர் சவால்

மேம்பட்ட புதிய மாதிரிகளை, பெரும்பாலும் தனியுரிம மாதிரிகளை, பகிரப்பட்ட உள்கட்டமைப்பில் பயன்படுத்துவது, ஒரு AI தொழிற்சாலை சுற்றுச்சூழல் அமைப்பில் உள்ள முக்கியப் பங்குதாரர்களிடையே ஒரு சிக்கலான, பல அம்சங்களைக் கொண்ட நம்பிக்கைச் சிக்கலை அறிமுகப்படுத்துகிறது. இந்த "வட்ட வடிவிலான நம்பிக்கையின்மை" என்பது, பாரம்பரிய கம்ப்யூட்டிங் சூழலில் தரவு பயன்பாட்டில் இருக்கும்போது அதை குறியாக்கம் செய்யத் தவறியதிலிருந்து அடிப்படையில் எழுகிறது.

  1. மாதிரி உரிமையாளர்கள் vs. உள்கட்டமைப்பு வழங்குநர்கள்: மாதிரி உரிமையாளர்கள் தனியுரிம AI மாதிரிகளை உருவாக்குவதில் அதிக முதலீடு செய்கிறார்கள், அவற்றின் எடைகள் மற்றும் அல்காரிதமிக் தர்க்கம் குறிப்பிடத்தக்க அறிவுசார் சொத்துக்களைக் குறிக்கின்றன. பகிரப்பட்ட உள்கட்டமைப்பில் பயன்படுத்தப்படும் போது ஹோஸ்ட் இயங்குதளம், ஹைப்பர்வைசர் அல்லது ஒரு ரூட் நிர்வாகி கூட தங்கள் மதிப்புமிக்க மாதிரிகளை ஆய்வு செய்யவோ, திருடவோ அல்லது பிரித்தெடுக்கவோ மாட்டார்கள் என்று அவர்கள் இயல்பாக நம்ப முடியாது.
  2. உள்கட்டமைப்பு வழங்குநர்கள் vs. மாதிரி உரிமையாளர்கள்/வாடகைதாரர்கள்: மறுபுறம், வன்பொருள் மற்றும் Kubernetes கிளஸ்டர்களை நிர்வகித்து இயக்கும் — உள்கட்டமைப்பு வழங்குநர்கள் — ஒரு மாதிரி உரிமையாளர் அல்லது வாடகைதாரரின் பணிச்சுமை தீங்கற்றது என்று கண்மூடித்தனமாக நம்ப முடியாது. பயன்படுத்தப்பட்ட AI பயன்பாடுகளுக்குள் உட்பொதிக்கப்பட்ட தீங்கிழைக்கும் குறியீடு, சலுகை அதிகரிப்பு முயற்சிகள் அல்லது ஹோஸ்ட் பாதுகாப்பு எல்லைகளை மீறுவதற்கான நிலையான ஆபத்து உள்ளது.
  3. வாடகைதாரர்கள் (தரவு உரிமையாளர்கள்) vs. மாதிரி உரிமையாளர்கள் மற்றும் உள்கட்டமைப்பு வழங்குநர்கள்: AI மாதிரிகளுக்குத் தேவையான முக்கியமான மற்றும் பெரும்பாலும் ஒழுங்குபடுத்தப்பட்ட தரவை வழங்கும் தரவு உரிமையாளர்கள், தங்கள் தகவல்கள் ரகசியமாக இருக்கும் என்பதற்கு வலுவான உத்தரவாதத்தைக் கோருகிறார்கள். செயலாக்கத்தின் போது உள்கட்டமைப்பு வழங்குநர் தங்கள் தரவைப் பார்க்க மாட்டார் என்று அவர்களால் நம்ப முடியாது, மேலும் அனுமானம் அல்லது செயலாக்கத்தின் போது மாதிரி வழங்குநர் தரவைத் தவறாகப் பயன்படுத்தவோ அல்லது கசிய விடவோ மாட்டார் என்றும் அவர்களால் உறுதியாக இருக்க முடியாது.

இந்த பரவலான நம்பிக்கையின்மை ஒரு முக்கியமான பாதிப்பை எடுத்துக்காட்டுகிறது: பாரம்பரிய கம்ப்யூட்டிங்கில், தரவு தீவிரமாகச் செயலாக்கப்படும்போது குறியாக்கம் செய்யப்படுவதில்லை. இது முக்கியமான தரவு மற்றும் தனியுரிம மாதிரிகளை நினைவகத்தில் தெளிவான உரை வடிவத்தில் வெளிப்படுத்தி, கணினி நிர்வாகிகளுக்கு அணுகக்கூடியதாக மாற்றுகிறது, நவீன AI பயன்பாடுகளுக்கு ஏற்றுக்கொள்ள முடியாத ஆபத்து சுயவிவரத்தை உருவாக்குகிறது.

ரகசியமான கம்ப்யூட்டிங் மற்றும் கண்டெய்னர்கள்: AI நம்பிக்கையின் அடித்தளம்

ரகசியமான கம்ப்யூட்டிங் இந்த ஆழமான நம்பிக்கைத் தடுமாற்றத்திற்கு ஒரு முக்கிய தீர்வாக வெளிப்படுகிறது. இது பாதுகாப்புக் காட்சியை அடிப்படையாக மாற்றுகிறது, தரவு மற்றும் மாதிரிகள் அவற்றின் முழு செயலாக்க வாழ்க்கைச் சுழற்சி முழுவதும் குறியாக்க ரீதியாகப் பாதுகாக்கப்படுவதை உறுதி செய்கிறது, ஓய்வு நிலையில் அல்லது பரிமாற்றத்தில் மட்டும் அல்ல. ஹோஸ்ட் இயங்குதளம் அல்லது ஹைப்பர்வைசருக்கு வெளிப்படாமல் முக்கியமான கணக்கீடுகள் நிகழக்கூடிய தனிமைப்படுத்தப்பட்ட, குறியாக்கம் செய்யப்பட்ட நினைவகப் பகுதிகளை உருவாக்கும் வன்பொருள் ஆதரவுடைய நம்பகமான செயலாக்கச் சூழல்களை (TEEs) பயன்படுத்துவதன் மூலம் இது அடையப்படுகிறது.

ரகசியமான கம்ப்யூட்டிங் முக்கியமான வன்பொருள் அடிப்படையை வழங்கினாலும், ரகசியமான கண்டெய்னர்கள் (CoCo) இந்த பாதுகாப்புக் கோட்பாட்டை Kubernetes சூழல்களுக்குச் சிறப்பாகச் செயல்படுத்துகின்றன. CoCo, பயன்பாட்டுக் குறியீட்டில் எந்த மாற்றமும் அல்லது மீண்டும் எழுதுதலும் இல்லாமல் Kubernetes Pod-களை இந்த வன்பொருள் ஆதரவுடைய TEEகளில் இயக்க அனுமதிக்கிறது. ஹோஸ்ட் கர்னலைப் பகிர்வதற்குப் பதிலாக, ஒவ்வொரு Pod-உம் வெளிப்படையாக Kata Containers மூலம் இயக்கப்படும் ஒரு இலகுரக, வன்பொருள்-தனிமைப்படுத்தப்பட்ட மெய்நிகர் இயந்திரத்தில் (VM) இணைக்கப்பட்டுள்ளது. இந்த புதுமையான அணுகுமுறை தற்போதுள்ள கிளவுட்-நேட்டிவ் பணிப்பாய்வுகள் மற்றும் கருவிகளைப் பாதுகாக்கும் அதே வேளையில், கடுமையான தனிமைப்படுத்தல் எல்லைகளைச் செயல்படுத்துகிறது, செயல்பாட்டுச் சுறுசுறுப்பைப் பாதிக்காமல் பாதுகாப்பை மேம்படுத்துகிறது.

மாதிரி வழங்குநர்களுக்கு, தனியுரிம மாதிரி எடைகள் திருடப்படும் அச்சுறுத்தல் ஒரு முதன்மையான கவலை. ஹோஸ்ட் இயங்குதளம் மற்றும் ஹைப்பர்வைசரை முக்கியமான நம்பிக்கை சமன்பாட்டிலிருந்து திறம்பட நீக்குவதன் மூலம் CoCo இதை நேரடியாகக் கையாள்கிறது. ஒரு AI மாதிரி ஒரு ரகசியமான கண்டெய்னருக்குள் பயன்படுத்தப்படும்போது, அது குறியாக்கம் செய்யப்பட்டே இருக்கும். தொலைநிலை அங்கீகாரம் எனப்படும் ஒரு செயல்முறை மூலம் TEE என்க்ளேவின் ஒருமைப்பாடு மற்றும் பாதுகாப்பை வன்பொருள் கணித ரீதியாகச் சரிபார்த்த பின்னரே ஒரு சிறப்பு Key Broker Service (KBS) தேவையான மறைகுறியாக்க சாவியை வெளியிடுகிறது. இந்த சாவி பின்னர் TEE க்குள் உள்ள பாதுகாக்கப்பட்ட நினைவகத்தில் மட்டுமே வழங்கப்படுகிறது, இதனால் மாதிரி எடைகள் ஹோஸ்ட் சூழலில், மிக உயர்ந்த சலுகை பெற்ற நிர்வாகிகளுக்கும் கூட, ஒருபோதும் தெளிவான உரை வடிவத்தில் வெளிப்படாது என்பதை உறுதி செய்கிறது.

பாதுகாப்பான AI தொழிற்சாலைகளுக்கான NVIDIA இன் ஜீரோ-ட்ரஸ்ட் குறிப்பு கட்டமைப்பு

NVIDIA, திறந்த மூல Confidential Containers சமூகத்துடன் இணைந்து, CoCo மென்பொருள் அடுக்கிற்கான ஒரு விரிவான குறிப்பு கட்டமைப்பை உருவாக்கியுள்ளது. இந்த வரைபடம், அடிப்படை வன்பொருள் உள்கட்டமைப்பில் ஜீரோ-ட்ரஸ்ட் AI தொழிற்சாலைகளை உருவாக்குவதற்கான ஒரு தரப்படுத்தப்பட்ட, முழு-ஸ்டாக் அணுகுமுறையை வரையறுக்கிறது. ஹோஸ்ட் சூழலுக்கு வெளிப்படாமல் புதிய மாதிரிகளைப் பாதுகாப்பாகப் பயன்படுத்துவதற்கும், அவற்றின் முக்கியமான தரவு மற்றும் அறிவுசார் சொத்துக்களைப் பாதுகாப்பதற்கும், அதிநவீன வன்பொருள் மற்றும் மென்பொருள் கூறுகளை எவ்வாறு ஒருங்கிணைப்பது என்பதை இது கவனமாக விவரிக்கிறது.

இந்த வலுவான கட்டமைப்பின் முக்கியத் தூண்கள் இவை:

தூண்விளக்கம்
Hardware Root of Trustவன்பொருள்-துரிதப்படுத்தப்பட்ட, நினைவகம் குறியாக்கம் செய்யப்பட்ட AI பணிச்சுமைகளுக்காக CPU நம்பகமான செயலாக்கச் சூழல்கள் (TEEs) மற்றும் NVIDIA ரகசிய GPUகளை (எ.கா., NVIDIA Hopper, NVIDIA Blackwell) பயன்படுத்துகிறது.
Kata Containers Runtimeதரமான Kubernetes Pod-களை இலகுரக, வன்பொருள்-தனிமைப்படுத்தப்பட்ட Utility VMs (UVMs) இல் மூடுகிறது, ஹோஸ்ட் கர்னலைப் பகிர்வதற்குப் பதிலாக வலுவான தனிமைப்படுத்தலை வழங்குகிறது.
Hardened Micro-Guest Environmentஒரு distro-less, chiseled root filesystem மற்றும் பாதுகாப்பான init அமைப்புக்காக NVIDIA Runtime Container (NVRC) ஐக் கொண்ட ஒரு சிறிய விருந்தினர் OS ஐப் பயன்படுத்துகிறது, இது VM இன் தாக்குதல் மேற்பரப்பைக் கணிசமாகக் குறைக்கிறது.
Attestation Serviceமுக்கியமான மாதிரி மறைகுறியாக்க சாவிகள் அல்லது ரகசியங்களை விருந்தினருக்கு வெளியிடுவதற்கு முன் வன்பொருள் சூழலின் ஒருமைப்பாட்டை குறியாக்க ரீதியாகச் சரிபார்க்கிறது, பெரும்பாலும் ஒரு Key Broker Service (KBS) இதில் ஈடுபட்டுள்ளது.
Confidential Workload Lifecycleகுறியாக்கம் செய்யப்பட்ட மற்றும் கையொப்பமிடப்பட்ட படங்களை (கண்டெய்னர்கள், மாதிரிகள், கலைப்பொருட்கள்) பாதுகாப்பாக குறியாக்கம் செய்யப்பட்ட TEE நினைவகத்திற்கு நேரடியாகப் பெறுவதை எளிதாக்குகிறது, ஓய்வு நிலையில் அல்லது பரிமாற்றத்தில் வெளிப்படுவதைத் தடுக்கிறது, மேலும் நுணுக்கமான இடைமுகக் கொள்கைகளை செயல்படுத்துகிறது.
Native Kubernetes & GPU Operator Integrationதரமான Kubernetes பிரிமிடிவ்கள் மற்றும் NVIDIA GPU Operator ஐப் பயன்படுத்தி முழு அடுக்கையும் நிர்வகிக்க உதவுகிறது, பயன்பாடுகளை மீண்டும் எழுதாமல் AI பயன்பாடுகளை 'lift-and-shift' முறையில் பயன்படுத்துகிறது.

இந்தக் கட்டமைப்பு, AI பணிச்சுமைகள் NVIDIA GPUகளின் செயல்திறனைப் பயன்படுத்தும் அதே வேளையில், குறியாக்க ரீதியாகப் பாதுகாக்கப்பட்ட எல்லைகளுக்குள் இணைக்கப்படுவதை உறுதி செய்கிறது.

AI பாதுகாப்பில் CoCo அச்சுறுத்தல் மாதிரி மற்றும் நம்பிக்கை எல்லைகளைப் புரிந்துகொள்ளுதல்

ரகசியமான கண்டெய்னர்கள் (CoCo) கடுமையாக வரையறுக்கப்பட்ட அச்சுறுத்தல் மாதிரியின் கீழ் செயல்படுகின்றன. இந்த மாதிரியில், முழு உள்கட்டமைப்பு அடுக்கு — ஹோஸ்ட் இயங்குதளம், ஹைப்பர்வைசர் மற்றும் சாத்தியமான கிளவுட் வழங்குநர் உட்பட — இயல்பாக நம்பத்தகாததாகக் கருதப்படுகிறது. இந்த அடிப்படைக் கருதுகோள் ஜீரோ-ட்ரஸ்ட் அணுகுமுறைக்கு மிகவும் முக்கியமானது.

பாதுகாப்புக் கட்டுப்பாடுகளைச் செயல்படுத்த உள்கட்டமைப்பு நிர்வாகிகளின் விழிப்புணர்வு அல்லது ஒருமைப்பாட்டை நம்புவதற்குப் பதிலாக, CoCo முதன்மை நம்பிக்கை எல்லையை வன்பொருள் ஆதரவுடைய நம்பகமான செயலாக்கச் சூழல்களுக்கு (TEEs) மூலோபாய ரீதியாக மாற்றுகிறது. இதன் பொருள், AI பணிச்சுமைகள் குறியாக்கம் செய்யப்பட்ட, மெய்நிகராக்கப்பட்ட சூழல்களில் செயல்படுத்தப்படுகின்றன, அங்கு நினைவக உள்ளடக்கங்கள் ஹோஸ்ட்டுக்குப் புரிந்துகொள்ள முடியாதவை. முக்கியமாக, மாதிரி மறைகுறியாக்க சாவிகள் போன்ற முக்கியமான ரகசியங்கள், தொலைநிலை அங்கீகாரம் மூலம் செயலாக்கச் சூழல் அதன் ஒருமைப்பாடு மற்றும் நம்பகத்தன்மையை குறியாக்க ரீதியாக நிரூபித்த பின்னரே மட்டுமே வெளியிடப்படுகின்றன.

இருப்பினும், இந்தப் பாதுகாப்பின் துல்லியமான நோக்கம் — CoCo எதைப் பாதுகாக்கிறது மற்றும் அதன் நோக்கத்திற்கு வெளியே என்ன இருக்கிறது என்பதைப் புரிந்துகொள்வது மிக முக்கியம்.

CoCo எதைப் பாதுகாக்கிறது

AI பணிச்சுமைகளின் செயலாக்கத்தின் போது ரகசியத்தன்மை மற்றும் ஒருமைப்பாடு ஆகிய இரண்டிற்கும் CoCo வலுவான உத்தரவாதங்களை வழங்குகிறது:

  1. தரவு மற்றும் மாதிரிப் பாதுகாப்பு: நினைவகக் குறியாக்கம் ஒரு மூலக்கல்லாகும், பணிச்சுமை TEE க்குள் தீவிரமாக இயங்கும்போது ஹோஸ்ட் சூழல் முக்கியமான தரவு, தனியுரிம மாதிரி எடைகள் அல்லது அனுமானப் பணிச்சுமைகளை அணுகுவதைத் தடுக்கிறது.
  2. செயலாக்க ஒருமைப்பாடு: எந்தவொரு முக்கியமான ரகசியங்கள் அல்லது மாதிரி மறைகுறியாக்க சாவிகள் வெளியிடப்படுவதற்கு முன், பணிச்சுமை உண்மையில் நம்பகமான, சமரசம் செய்யப்படாத சூழலில் எதிர்பார்க்கப்படும் மென்பொருள் அளவீடுகளுடன் இயங்குகிறதா என்பதைச் சரிபார்ப்பதன் மூலம் தொலைநிலை அங்கீகாரம் ஒரு முக்கியப் பங்காற்றுகிறது.
  3. பாதுகாப்பான பட மற்றும் சேமிப்பக கையாளுதல்: கண்டெய்னர் படங்கள் பாதுகாப்பான, குறியாக்கம் செய்யப்பட்ட விருந்தினர் சூழலில் நேரடியாகப் பெறப்பட்டு, சரிபார்க்கப்பட்டு, பிரிக்கப்படுகின்றன. இது ஹோஸ்ட் உள்கட்டமைப்பு எந்தப் புள்ளியிலும் பயன்பாட்டுக் குறியீடு அல்லது மதிப்புமிக்க மாதிரி கலைப்பொருட்களை ஆய்வு செய்யவோ அல்லது சிதைக்கவோ முடியாது என்பதை உறுதி செய்கிறது.
  4. ஹோஸ்ட்-நிலை அணுகலிலிருந்து பாதுகாப்பு: கட்டமைப்பு சலுகை பெற்ற ஹோஸ்ட் செயல்களிலிருந்து பணிச்சுமைகளைத் திறம்படப் பாதுகாக்கிறது. நிர்வாக பிழைத்திருத்தக் கருவிகள், நினைவக ஆய்வு அல்லது ஹோஸ்ட்டால் வட்டுத் துடைத்தல் ஆகியவை இயங்கும் AI பணிச்சுமையின் ரகசிய உள்ளடக்கங்களை வெளிப்படுத்த முடியாது.

CoCo எதைப் பாதுகாக்கவில்லை

அதிக செயல்திறன் கொண்டதாக இருந்தாலும், சில அபாயங்கள் மற்றும் தாக்குதல் வெக்டார்கள் CoCo கட்டமைப்பின் உள்ளார்ந்த நோக்கத்திற்கு வெளியே உள்ளன:

  1. பயன்பாட்டு பாதிப்புகள்: CoCo சரிபார்க்கப்பட்ட மற்றும் ரகசியமான செயலாக்கச் சூழலை உறுதி செய்கிறது, ஆனால் அது AI பயன்பாட்டுக் குறியீட்டிற்குள் உள்ள பாதிப்புகளை இயல்பாகச் சரிசெய்யவோ அல்லது தடுக்கவோ இல்லை. ஒரு பயன்பாட்டில் தரவு கசிவு அல்லது தவறான செயலாக்கத்திற்கு வழிவகுக்கும் பிழை இருந்தால், CoCo இதைத் தணிக்க முடியாது.
  2. கிடைக்கும் தன்மை தாக்குதல்கள்: CoCo இன் முதன்மை நோக்கம் ரகசியத்தன்மை மற்றும் ஒருமைப்பாடு ஆகும். தரவைத் திருடுவதை விட சேவையைப் பாதிப்பதை நோக்கமாகக் கொண்ட சேவை மறுப்பு (DoS) அல்லது பிற கிடைக்கும் தன்மை தாக்குதல்களை இது நேரடியாகத் தடுக்காது. தேவையற்ற உள்கட்டமைப்பு மற்றும் நெட்வொர்க்-நிலை பாதுகாப்புகள் போன்ற நடவடிக்கைகள் இன்னும் அவசியமானவை.
  3. நெட்வொர்க் பாதுகாப்பு: பரிமாற்றத்தில் உள்ள தரவு, நெட்வொர்க் இறுதிப் புள்ளி பாதுகாப்பு மற்றும் நெட்வொர்க் நெறிமுறைகளில் உள்ள பாதிப்புகள் TEE இன் நேரடிப் பாதுகாப்பிற்கு வெளியே உள்ளன. பாதுகாப்பான தகவல்தொடர்பு சேனல்கள் (எ.கா., TLS/SSL) மற்றும் வலுவான நெட்வொர்க் பிரிப்பு ஆகியவை நிரப்புத் தேவைகளாகும். AI ஐப் பாதுகாப்பது பற்றிய ஆழமான நுண்ணறிவுகளுக்கு, தீங்கிழைக்கும் AI பயன்பாடுகளைத் தடுப்பதற்கான உத்திகளை ஆராய்வதைக் கவனியுங்கள்.

பாதுகாப்பான AI இன் எதிர்காலத்தை உருவாக்குதல்

AI இன் சோதனை நிலையிலிருந்து உற்பத்தி நிலைக்குப் பயணிப்பது பாதுகாப்பில் ஒரு முன்மாதிரியான மாற்றத்தைக் கோருகிறது. நிறுவனங்கள் இனி மாதிரிகளை மட்டும் பயன்படுத்துவதில்லை; அவை பெருமளவில் நுண்ணறிவை உற்பத்தி செய்யும் சிக்கலான AI தொழிற்சாலைகளை உருவாக்குகின்றன. ரகசியமான கண்டெய்னர்கள் மற்றும் வன்பொருள் ஆதரவுடைய TEEகளால் இயக்கப்படும் NVIDIA இன் ஜீரோ-ட்ரஸ்ட் கட்டமைப்பு, இந்த புதிய சகாப்தத்திற்கான முக்கிய அடிப்படையை வழங்குகிறது. உள்ளார்ந்த நம்பிக்கைச் சிக்கல்களை கவனமாகத் தீர்த்து, வலுவான குறியாக்க உத்தரவாதங்களை வழங்குவதன் மூலம், நிறுவனங்கள் தனியுரிம மாதிரிகளை நம்பிக்கையுடன் பயன்படுத்தலாம் மற்றும் முக்கியமான தரவுகளைச் செயலாக்கலாம், பாதுகாப்பைப் பாதிக்காமல் AI ஐ ஏற்றுக்கொள்வதைத் துரிதப்படுத்தலாம். இந்த அணுகுமுறை அறிவுசார் சொத்து மற்றும் தனிப்பட்ட தகவல்களைப் பாதுகாப்பது மட்டுமல்லாமல், முழு AI மேம்பாடு மற்றும் பயன்பாட்டு வாழ்க்கைச் சுழற்சி முழுவதும் ஒரு புதிய அளவிலான நம்பிக்கையையும் வளர்க்கிறது. AI தொடர்ந்து வளர்ச்சியடையும்போது, அத்தகைய மேம்பட்ட பாதுகாப்பு கட்டமைப்புகளின் ஒருங்கிணைப்பு அதன் முழு, மாற்றும் திறனை உணர மிக முக்கியமானது. மேலும், AWS மற்றும் NVIDIA AI ஐ துரிதப்படுத்த தங்கள் மூலோபாய ஒத்துழைப்பை ஆழப்படுத்துவது போன்ற தொழில் தலைவர்களுக்கு இடையேயான தற்போதைய மூலோபாய ஒத்துழைப்பு, பாதுகாப்பான மற்றும் அளவிடக்கூடிய AI தீர்வுகளை மேம்படுத்துவதற்கான தொழில்துறையின் உறுதிப்பாட்டை அடிக்கோடிட்டுக் காட்டுகிறது.

அடிக்கடி கேட்கப்படும் கேள்விகள்

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

புதுப்பிப்புகளைப் பெறுங்கள்

சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.

பகிர்