Code Velocity
AI უსაფრთხოება

ნულოვანი ნდობის AI ფაბრიკები: კონფიდენციალური AI დატვირთვების უზრუნველყოფა TEE-ებით

·7 წუთი კითხვა·NVIDIA·ორიგინალი წყარო
გაზიარება
დიაგრამა, რომელიც ასახავს ნულოვანი ნდობის არქიტექტურას, რომელიც იცავს კონფიდენციალურ AI დატვირთვებს AI ფაბრიკებში.

AI-ის სწრაფმა განვითარებამ ის ექსპერიმენტული ეტაპებიდან საწარმოო ოპერაციების გულში გადაიყვანა. თუმცა, მნიშვნელოვანი დაბრკოლება რჩება: კრიტიკული საწარმოო მონაცემების უმრავლესობა, მათ შორის მაღალმგრძნობიარე პაციენტის ჩანაწერები, საკუთრების ბაზრის კვლევები და ფასდაუდებელი მემკვიდრეობითი ცოდნა, საჯარო ღრუბლის გარეთაა. ამ მგრძნობიარე ინფორმაციის AI მოდელებთან ინტეგრაცია ქმნის მნიშვნელოვან კონფიდენციალურობისა და ნდობის პრობლემებს, რაც ხშირად ანელებს ან საერთოდ ბლოკავს AI-ის დანერგვას.

AI-ის პოტენციალის სრულად გამოსახსნელად, საწარმოები აშენებენ "AI ფაბრიკებს" – სპეციალიზებულ, მაღალი წარმადობის ინფრასტრუქტურებს, რომლებიც შექმნილია ინტელექტის მასშტაბურად წარმოსაქმნელად. იმისათვის, რომ ეს ფაბრიკები წარმატებული იყოს მგრძნობიარე მონაცემებთან და საკუთრების მოდელებთან, ისინი უნდა აშენდეს ურყევ ნულოვანი ნდობის ფუნდამენტზე. ეს პარადიგმა კარნახობს, რომ არცერთ სუბიექტს, იქნება ეს მომხმარებელი, მოწყობილობა თუ აპლიკაცია, არ აქვს ნაგულისხმევი ნდობა. ამის ნაცვლად, ყველა წვდომის მოთხოვნა მკაცრად მოწმდება და ავტორიზდება. ეს მიიღწევა აპარატურით გამყარებული სანდო შესრულების გარემოების (TEEs) და კრიპტოგრაფიული ატესტაციის მეშვეობით, რაც ქმნის უსაფრთხოების არქიტექტურას, რომელიც გამორიცხავს თანდაყოლილ ნდობას ძირითადი ჰოსტ ინფრასტრუქტურის მიმართ. ეს სტატია იკვლევს სრულ დასტის მიდგომას, რომელიც ასახავს NVIDIA-ს საცნობარო არქიტექტურას ამ ნულოვანი ნდობის ფუნდამენტის თანამედროვე AI ფაბრიკებში ინტეგრირებისთვის.

AI ფაბრიკის ნდობის დილემა: მრავალმხრივი დაინტერესებული მხარეების გამოწვევა

მოწინავე, ხშირად საკუთრების, მოდელების გაზიარებულ ინფრასტრუქტურაზე განთავსებისკენ მიმართული ცვლილება ქმნის რთულ, მრავალმხრივ ნდობის დილემას AI ფაბრიკის ეკოსისტემის ძირითად დაინტერესებულ მხარეებს შორის. "ნდობის ამ წრიულ ნაკლებობას" ფუნდამენტურად განაპირობებს ტრადიციული გამოთვლითი გარემოს მიერ მონაცემთა დაშიფვრის შეუძლებლობა მათი გამოყენებისას.

  1. მოდელის მფლობელები vs. ინფრასტრუქტურის პროვაიდერები: მოდელის მფლობელები დიდ ინვესტიციებს დებენ საკუთრების AI მოდელების შემუშავებაში, რომელთა წონები და ალგორითმული ლოგიკა მნიშვნელოვან ინტელექტუალურ საკუთრებას წარმოადგენს. მათ არ შეუძლიათ ნაგულისხმევად ენდონ, რომ ჰოსტ ოპერაციული სისტემა, ჰიპერვიზორი ან თუნდაც root ადმინისტრატორი არ შეამოწმებს, მოიპარავს ან არ ამოიღებს მათ ღირებულ მოდელებს გაზიარებულ ინფრასტრუქტურაზე განთავსებისას.
  2. ინფრასტრუქტურის პროვაიდერები vs. მოდელის მფლობელები/მოიჯარეები: პირიქით, ისინი, ვინც მართავენ და ოპერირებენ აპარატურასა და Kubernetes კლასტერებს – ინფრასტრუქტურის პროვაიდერები – ვერ ენდობიან ბრმად, რომ მოდელის მფლობელის ან მოიჯარის დატვირთვა უწყინარია. არსებობს მუდმივი რისკი მავნე კოდის, პრივილეგიების ესკალაციის მცდელობების ან ჰოსტ უსაფრთხოების საზღვრების დარღვევის შესახებ, რომელიც ჩადებულია განთავსებულ AI აპლიკაციებში.
  3. მოიჯარეები (მონაცემთა მფლობელები) vs. მოდელის მფლობელები და ინფრასტრუქტურის პროვაიდერები: მონაცემთა მფლობელები, რომლებიც აწვდიან მგრძნობიარე და ხშირად რეგულირებულ მონაცემებს, რომლებიც კვებავს AI მოდელებს, მოითხოვენ ძლიერ გარანტიას, რომ მათი ინფორმაცია კონფიდენციალური რჩება. მათ არ შეუძლიათ ენდონ, რომ ინფრასტრუქტურის პროვაიდერი არ ნახავს მათ მონაცემებს შესრულების დროს, არც შეუძლიათ დარწმუნდნენ, რომ მოდელის პროვაიდერი არ გამოიყენებს არასწორად ან არ გაჟონავს მონაცემებს ინფერენციის ან დამუშავების დროს.

ნდობის ეს ფართოდ გავრცელებული ნაკლებობა ხაზს უსვამს კრიტიკულ დაუცველობას: ჩვეულებრივ გამოთვლებში მონაცემები არ არის დაშიფრული, სანამ ისინი აქტიურად მუშავდება. ეს მგრძნობიარე მონაცემებსა და საკუთრების მოდელებს მეხსიერებაში ღია ტექსტად ტოვებს და სისტემის ადმინისტრატორებისთვის ხელმისაწვდომს ხდის, რაც ქმნის მიუღებელ რისკს თანამედროვე AI განთავსებისთვის.

კონფიდენციალური გამოთვლა და კონტეინერები: AI ნდობის საფუძველი

კონფიდენციალური გამოთვლა ამ ღრმა ნდობის დილემის გადამწყვეტ გადაწყვეტად გვევლინება. ის ფუნდამენტურად ცვლის უსაფრთხოების ლანდშაფტს იმით, რომ უზრუნველყოფს მონაცემებისა და მოდელების კრიპტოგრაფიულად დაცვას მათი შესრულების მთელი სასიცოცხლო ციკლის განმავლობაში, არა მხოლოდ უმოქმედოდ ან გადაცემისას. ეს მიიღწევა აპარატურით გამყარებული სანდო შესრულების გარემოების (TEEs) გამოყენებით, რომლებიც ქმნიან იზოლირებულ, დაშიფრულ მეხსიერების რეგიონებს, სადაც მგრძნობიარე გამოთვლები შეიძლება განხორციელდეს ჰოსტ ოპერაციული სისტემისთვის ან ჰიპერვიზორისთვის გამჟღავნების გარეშე.

მიუხედავად იმისა, რომ კონფიდენციალური გამოთვლა უზრუნველყოფს გადამწყვეტ აპარატურულ საფუძველს, კონფიდენციალური კონტეინერები (CoCo) ახდენენ ამ უსაფრთხოების პარადიგმის ოპერაციონალიზაციას სპეციალურად Kubernetes გარემოსთვის. CoCo საშუალებას აძლევს Kubernetes პოდებს გაეშვას ამ აპარატურით გამყარებულ TEE-ებში აპლიკაციის კოდში რაიმე ცვლილების ან გადაწერის გარეშე. ჰოსტ ბირთვის გაზიარების ნაცვლად, თითოეული პოდი გამჭვირვალედ ინკაპსულირებულია მსუბუქ, აპარატურით იზოლირებულ ვირტუალურ მანქანაში (VM), რომელიც იკვებება Kata Containers-ის მიერ. ეს ინოვაციური მიდგომა ინარჩუნებს არსებულ ღრუბლოვანი მშობლიური სამუშაო პროცესებსა და ხელსაწყოებს, ხოლო უზრუნველყოფს მკაცრ იზოლაციის საზღვრებს, ამაღლებს უსაფრთხოებას ოპერაციული სისწრაფის შეფერხების გარეშე.

მოდელის პროვაიდერებისთვის, საკუთრების მოდელის წონების ქურდობის საფრთხე უმთავრესი შეშფოთებაა. CoCo უშუალოდ წყვეტს ამას ჰოსტ ოპერაციული სისტემისა და ჰიპერვიზორის კრიტიკული ნდობის განტოლებიდან ეფექტურად ამოღებით. როდესაც AI მოდელი განთავსებულია კონფიდენციალურ კონტეინერში, ის დაშიფრული რჩება. მხოლოდ მას შემდეგ, რაც აპარატურა მათემატიკურად გადაამოწმებს TEE ენკლავის მთლიანობასა და უსაფრთხოებას დისტანციური ატესტაციის სახელით ცნობილი პროცესის მეშვეობით, სპეციალიზებული გასაღებების ბროკერის სერვისი (Key Broker Service – KBS) გასცემს აუცილებელ გაშიფვრის გასაღებს. ეს გასაღები შემდეგ მიეწოდება ექსკლუზიურად TEE-ის დაცულ მეხსიერებაში, რაც უზრუნველყოფს, რომ მოდელის წონები არასოდეს გაიჟონება ღია ტექსტად ჰოსტ გარემოში, თუნდაც მაღალპრივილეგირებული ადმინისტრატორებისთვის.

NVIDIA-ს ნულოვანი ნდობის საცნობარო არქიტექტურა უსაფრთხო AI ფაბრიკებისთვის

NVIDIA-მ, ღია კოდის Confidential Containers საზოგადოებასთან თანამშრომლობით, შეიმუშავა ყოვლისმომცველი საცნობარო არქიტექტურა CoCo პროგრამული უზრუნველყოფის დასტისთვის. ეს გეგმა განსაზღვრავს სტანდარტიზებულ, სრულ დასტის მიდგომას ნულოვანი ნდობის AI ფაბრიკების შენებისთვის შიშველი მეტალის ინფრასტრუქტურაზე. ის ზედმიწევნით ასახავს, თუ როგორ უნდა მოხდეს უახლესი აპარატურისა და პროგრამული კომპონენტების ინტეგრირება მოწინავე მოდელების უსაფრთხოდ განთავსებისთვის, როგორც მათი მგრძნობიარე მონაცემების, ასევე ინტელექტუალური საკუთრების დაცვით ჰოსტ გარემოსთვის გამჟღავნებისგან.

ამ ძლიერი არქიტექტურის ძირითადი საყრდენებია:

სვეტიაღწერა
აპარატურის ნდობის ფესვიიყენებს CPU სანდო შესრულების გარემოებს (TEEs) NVIDIA კონფიდენციალურ GPU-ებთან (მაგ., NVIDIA Hopper, NVIDIA Blackwell) აპარატურით აჩქარებული, მეხსიერებით დაშიფრული AI დატვირთვებისთვის.
Kata Containers რანტაიმიახვევს სტანდარტულ Kubernetes პოდებს მსუბუქ, აპარატურით იზოლირებულ უტილიტა VM-ებში (UVMs), უზრუნველყოფს ძლიერ იზოლაციას ჰოსტ ბირთვის გაზიარების ნაცვლად.
გამაგრებული მიკრო-სტუმრის გარემოიყენებს დისტრო-ნაკლებ, მინიმალურ სტუმარ OS-ს, რომელშიც შედის მოჭრილი root ფაილური სისტემა და NVIDIA Runtime Container (NVRC) უსაფრთხო ინიციალიზაციის სისტემისთვის, რაც მკვეთრად ამცირებს VM-ის შეტევის ზედაპირს.
ატესტაციის სერვისიკრიპტოგრაფიულად ამოწმებს აპარატურული გარემოს მთლიანობას, სანამ მგრძნობიარე მოდელის გაშიფვრის გასაღებებს ან საიდუმლოებებს სტუმარს გადასცემს, ხშირად მოიცავს გასაღებების ბროკერის სერვისს (KBS).
კონფიდენციალური დატვირთვის სასიცოცხლო ციკლიხელს უწყობს დაშიფრული და ხელმოწერილი სურათების (კონტეინერები, მოდელები, არტეფაქტები) უსაფრთხო გამოთრევას უშუალოდ დაშიფრულ TEE მეხსიერებაში, რაც ხელს უშლის გამჟღავნებას უმოქმედოდ ან გადაცემისას და საშუალებას აძლევს წვრილმარცვლოვან ინტერფეისის პოლიტიკას.
მშობლიური Kubernetes & GPU ოპერატორის ინტეგრაციაშესაძლებელს ხდის მთელი დასტის მართვას სტანდარტული Kubernetes პრიმიტივებისა და NVIDIA GPU ოპერატორის გამოყენებით, რაც საშუალებას იძლევა AI აპლიკაციების 'lift-and-shift' განთავსებისთვის გადაწერის გარეშე.

ეს არქიტექტურა უზრუნველყოფს, რომ AI დატვირთვები ისარგებლებენ NVIDIA GPU-ების წარმადობით, ხოლო ინკაპსულირებული იქნებიან კრიპტოგრაფიულად დაცულ საზღვრებში.

CoCo საფრთხის მოდელისა და ნდობის საზღვრების გაგება AI უსაფრთხოებაში

კონფიდენციალური კონტეინერები (CoCo) ფუნქციონირებენ მკაცრად განსაზღვრული საფრთხის მოდელის მიხედვით. ამ მოდელში, მთელი ინფრასტრუქტურის ფენა – მათ შორის ჰოსტ ოპერაციული სისტემა, ჰიპერვიზორი და შესაძლოა თავად ღრუბლის პროვაიდერიც კი – განიხილება, როგორც თანდაყოლილად უნდობელი. ეს ფუნდამენტური დაშვება კრიტიკულია ნულოვანი ნდობის მიდგომისთვის.

იმის ნაცვლად, რომ დაეყრდნოს ინფრასტრუქტურის ადმინისტრატორების სიფხიზლეს ან მთლიანობას უსაფრთხოების კონტროლის აღსრულებისას, CoCo სტრატეგიულად გადააქვს ძირითადი ნდობის საზღვარი აპარატურით გამყარებულ სანდო შესრულების გარემოებებზე (TEEs). ეს ნიშნავს, რომ AI დატვირთვები სრულდება დაშიფრულ, ვირტუალიზებულ გარემოში, სადაც მეხსიერების შიგთავსი ჰოსტისთვის გაუგებარია. რაც მთავარია, მგრძნობიარე საიდუმლოებები, როგორიცაა მოდელის გაშიფვრის გასაღებები, გაიცემა მხოლოდ მას შემდეგ, რაც შესრულების გარემო კრიპტოგრაფიულად დაამტკიცებს თავის მთლიანობასა და ავთენტურობას დისტანციური ატესტაციის მეშვეობით.

თუმცა, სასიცოცხლოდ მნიშვნელოვანია ამ დაცვის ზუსტი ფარგლების გაგება – რას იცავს CoCo და რა რჩება მისი ფარგლებს გარეთ.

რას იცავს CoCo

CoCo უზრუნველყოფს ძლიერ გარანტიებს როგორც კონფიდენციალურობისთვის, ასევე მთლიანობისთვის AI დატვირთვების შესრულების დროს:

  1. მონაცემებისა და მოდელის დაცვა: მეხსიერების დაშიფვრა ქვაკუთხედია, რომელიც ხელს უშლის ჰოსტ გარემოს მგრძნობიარე მონაცემებზე, საკუთრების მოდელის წონებზე ან ინფერენსის დატვირთვებზე წვდომაში, სანამ დატვირთვა აქტიურად მუშაობს TEE-ში.
  2. შესრულების მთლიანობა: დისტანციური ატესტაცია კრიტიკულ როლს ასრულებს იმის გადამოწმებით, რომ დატვირთვა მართლაც მუშაობს სანდო, არაკომპრომეტირებულ გარემოში მოსალოდნელი პროგრამული გაზომვებით, სანამ რაიმე მგრძნობიარე საიდუმლოება ან მოდელის გაშიფვრის გასაღები ოდესმე გაიცემა.
  3. უსაფრთხო სურათისა და შენახვის დამუშავება: კონტეინერის სურათები ითრევა, მოწმდება და იფუთება უშუალოდ უსაფრთხო, დაშიფრულ სტუმრის გარემოში. ეს უზრუნველყოფს, რომ ჰოსტ ინფრასტრუქტურამ ვერ შეამოწმოს ან ვერ გააფუჭოს აპლიკაციის კოდი ან ღირებული მოდელის არტეფაქტები ნებისმიერ დროს.
  4. დაცვა ჰოსტ-დონის წვდომისგან: არქიტექტურა ეფექტურად იცავს დატვირთვებს პრივილეგირებული ჰოსტ მოქმედებებისგან. ადმინისტრაციულ გამართვის ხელსაწყოებს, მეხსიერების შემოწმებას ან დისკის გაწმენდას ჰოსტის მიერ არ შეუძლიათ მოქმედი AI დატვირთვის კონფიდენციალური შიგთავსის გამჟღავნება.

რას არ იცავს CoCo

მიუხედავად იმისა, რომ მაღალეფექტურია, გარკვეული რისკები და შეტევის ვექტორები CoCo არქიტექტურის თანდაყოლილ ფარგლებს გარეთაა:

  1. აპლიკაციის დაუცველობები: CoCo უზრუნველყოფს გადამოწმებულ და კონფიდენციალურ შესრულების გარემოს, მაგრამ ის თავისთავად არ აგვარებს ან არ აფერხებს დაუცველობებს თავად AI აპლიკაციის კოდში. თუ აპლიკაციას აქვს შეცდომა, რომელიც იწვევს მონაცემთა გაჟონვას ან არასწორ დამუშავებას, CoCo ვერ შეამცირებს ამას.
  2. ხელმისაწვდომობის შეტევები: CoCo-ს ძირითადი აქცენტია კონფიდენციალურობა და მთლიანობა. ის უშუალოდ არ აფერხებს მომსახურების უარყოფის (DoS) ან სხვა ხელმისაწვდომობის შეტევებს, რომელთა მიზანია სერვისის შეფერხება და არა მონაცემების მოპარვა. ისეთი ზომები, როგორიცაა ზედმეტი ინფრასტრუქტურა და ქსელის დონის დაცვა, მაინც აუცილებელია.
  3. ქსელის უსაფრთხოება: მონაცემები გადაცემისას, ქსელის ბოლო წერტილების უსაფრთხოება და ქსელის პროტოკოლებში არსებული დაუცველობები TEE-ის პირდაპირი დაცვის ფარგლებს გარეთაა. უსაფრთხო საკომუნიკაციო არხები (მაგ., TLS/SSL) და ძლიერი ქსელის სეგმენტაცია დამატებითი მოთხოვნებია. AI-ის უსაფრთხოების ღრმა გაგებისთვის, გაითვალისწინეთ სტრატეგიების შესწავლა მავნე AI გამოყენების შეფერხებისთვის.

უსაფრთხო AI-ის მომავლის მშენებლობა

AI-ის გზა ექსპერიმენტიდან წარმოებამდე მოითხოვს უსაფრთხოების პარადიგმის ცვლილებას. საწარმოები აღარ ათავსებენ უბრალოდ მოდელებს; ისინი აშენებენ რთულ AI ფაბრიკებს, რომლებიც მასშტაბურად წარმოქმნიან ინტელექტს. NVIDIA-ს ნულოვანი ნდობის არქიტექტურა, რომელიც იკვებება კონფიდენციალური კონტეინერებითა და აპარატურით გამყარებული TEE-ებით, უზრუნველყოფს ამ ახალი ეპოქის კრიტიკულ საფუძველს. ნდობის თანდაყოლილი დილემების ზედმიწევნით გადაწყვეტით და ძლიერი კრიპტოგრაფიული გარანტიების მიწოდებით, ორგანიზაციებს შეუძლიათ დარწმუნებით განათავსონ საკუთრების მოდელები და დაამუშაონ მგრძნობიარე მონაცემები, რაც აჩქარებს AI-ის დანერგვას უსაფრთხოების კომპრომისის გარეშე. ეს მიდგომა არა მხოლოდ იცავს ინტელექტუალურ საკუთრებასა და პირად ინფორმაციას, არამედ ქმნის ნდობის ახალ დონეს AI განვითარებისა და განთავსების მთელი სასიცოცხლო ციკლის განმავლობაში. ვინაიდან AI აგრძელებს ევოლუციას, ასეთი მოწინავე უსაფრთხოების ფრეიმვორკების ინტეგრაცია გადამწყვეტი იქნება მისი სრული, ტრანსფორმაციული პოტენციალის რეალიზაციისთვის. გარდა ამისა, ინდუსტრიის ლიდერებს შორის მიმდინარე სტრატეგიული თანამშრომლობა, როგორიცაა AWS-ისა და NVIDIA-ს მიერ სტრატეგიული თანამშრომლობის გაღრმავება AI-ის დაჩქარების მიზნით პილოტიდან წარმოებამდე, ხაზს უსვამს ინდუსტრიის ვალდებულებას უსაფრთხო და მასშტაბური AI გადაწყვეტილებების განვითარების მიმართ.

ხშირად დასმული კითხვები

What is a zero-trust AI factory and why is it important for enterprises?
A zero-trust AI factory is a high-performance infrastructure designed to manufacture intelligence at scale, built on the principle of 'never trust, always verify.' It eliminates implicit trust in the underlying host infrastructure by using hardware-enforced Trusted Execution Environments (TEEs) and cryptographic attestation. This is crucial for enterprises dealing with sensitive data (like patient records or market research) and proprietary AI models, as it mitigates risks of data exposure, intellectual property theft, and privacy concerns, thereby accelerating the adoption of AI into production environments. Its importance lies in enabling secure processing of highly confidential information.
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
The trust dilemma in AI deployment arises from conflicting trust requirements among model owners, infrastructure providers, and data owners. Model owners fear IP theft from infrastructure providers; infrastructure providers worry about malicious workloads from model owners; and data owners need assurance that neither infrastructure nor model providers will misuse or expose their sensitive data during execution. This circular lack of trust is primarily due to data not being encrypted while in use in traditional computing environments, leaving it vulnerable to inspection by system administrators and hypervisors, creating significant security challenges.
How does confidential computing enhance the security of AI models and data?
Confidential computing addresses the core issue of data exposure by ensuring that data and AI models remain cryptographically protected throughout their entire execution lifecycle. Unlike traditional systems where data in use is unencrypted, confidential computing leverages hardware-backed Trusted Execution Environments (TEEs) to encrypt memory. This means sensitive data, model weights, and inference payloads are shielded from unauthorized access, even from privileged host software or administrators, significantly reducing the risk of intellectual property theft and data breaches during AI model inference and training and ensuring robust protection.
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
Confidential Containers (CoCo) operationalize the benefits of confidential computing within Kubernetes environments. Instead of running standard Kubernetes pods directly on the host kernel, CoCo wraps each pod in a lightweight, hardware-isolated virtual machine (VM) using Kata Containers. This approach maintains cloud-native workflows while enforcing strong isolation. For AI, CoCo ensures that proprietary model weights remain encrypted until the hardware mathematically proves the enclave's security via remote attestation. A Key Broker Service then releases decryption keys only into this protected memory, preventing exposure to the host OS or hypervisor.
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
NVIDIA's reference architecture combines several crucial components to build robust zero-trust AI factories. Key pillars include a Hardware Root of Trust, utilizing CPU TEEs and NVIDIA confidential GPUs for memory-encrypted AI workloads; Kata Containers runtime for hardware-isolated Kubernetes pods; a Hardened Micro-Guest Environment with a minimal guest OS to reduce the attack surface; an Attestation Service to cryptographically verify hardware integrity before releasing secrets; a Confidential Workload Lifecycle for secure image pulling and deployment; and Native Kubernetes and GPU Operator Integration for seamless management and deployment without application rewrites.
What security aspects are *not* covered by Confidential Containers (CoCo)?
While CoCo provides strong confidentiality and integrity guarantees for data and model execution, it does not protect against all types of attacks. Specifically, CoCo does not address application vulnerabilities, meaning flaws within the AI application code itself that could be exploited. It also doesn't inherently prevent availability attacks, which aim to disrupt service rather than steal data. Furthermore, network security, such as protecting data in transit or securing network endpoints, remains outside CoCo's direct scope. These aspects require complementary security measures alongside the confidential computing framework for a complete security posture.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება