ความก้าวหน้าอย่างรวดเร็วของ AI ได้ผลักดันให้ AI ก้าวจากขั้นตอนการทดลองไปสู่แกนหลักของการดำเนินงานขององค์กร ทว่ายังคงมีอุปสรรคสำคัญประการหนึ่ง: ข้อมูลองค์กรที่สำคัญส่วนใหญ่ ซึ่งรวมถึงบันทึกผู้ป่วยที่มีความละเอียดอ่อนสูง การวิจัยตลาดที่เป็นกรรมสิทธิ์ และองค์ความรู้ดั้งเดิมอันล้ำค่า ยังคงอยู่นอกคลาวด์สาธารณะ การรวมข้อมูลที่ละเอียดอ่อนนี้เข้ากับโมเดล AI ก่อให้เกิดความกังวลด้านความเป็นส่วนตัวและความไว้วางใจอย่างมาก ซึ่งมักจะชะลอหรือขัดขวางการนำ AI มาใช้โดยสิ้นเชิง
เพื่อปลดล็อกศักยภาพของ AI อย่างแท้จริง องค์กรต่างๆ กำลังสร้าง "โรงงาน AI" ซึ่งเป็นโครงสร้างพื้นฐานพิเศษที่มีประสิทธิภาพสูงที่ออกแบบมาเพื่อสร้างปัญญาในวงกว้าง เพื่อให้โรงงานเหล่านี้ประสบความสำเร็จกับข้อมูลที่ละเอียดอ่อนและโมเดลที่เป็นกรรมสิทธิ์ พวกเขาจะต้องสร้างขึ้นบนพื้นฐาน Zero-Trust ที่ไม่เปลี่ยนแปลง แนวคิดนี้กำหนดให้ไม่มีเอนทิตีใด ไม่ว่าจะเป็นผู้ใช้ อุปกรณ์ หรือแอปพลิเคชัน ที่ได้รับความไว้วางใจโดยนัย แต่คำขอการเข้าถึงทั้งหมดจะถูกตรวจสอบสิทธิ์และได้รับอนุญาตอย่างเข้มงวด สิ่งนี้ทำได้โดยใช้ Trusted Execution Environments (TEEs) ที่บังคับใช้ด้วยฮาร์ดแวร์และการรับรองด้วยการเข้ารหัส ซึ่งสร้างสถาปัตยกรรมความปลอดภัยที่ขจัดความไว้วางใจโดยธรรมชาติในโครงสร้างพื้นฐานโฮสต์ บทความนี้จะสำรวจแนวทางแบบ Full-stack โดยสรุปสถาปัตยกรรมอ้างอิงของ NVIDIA สำหรับการรวมรากฐาน Zero-Trust นี้เข้ากับโรงงาน AI ที่ทันสมัย
ภาวะกลืนไม่เข้าคายไม่ออกด้านความไว้วางใจของโรงงาน AI: ความท้าทายจากผู้มีส่วนได้ส่วนเสียหลายฝ่าย
การเปลี่ยนไปสู่การปรับใช้โมเดลล้ำสมัยขั้นสูง ซึ่งมักเป็นกรรมสิทธิ์ บนโครงสร้างพื้นฐานที่ใช้ร่วมกัน ได้ก่อให้เกิดภาวะกลืนไม่เข้าคายไม่ออกด้านความไว้วางใจที่ซับซ้อนและมีหลายแง่มุมระหว่างผู้มีส่วนได้ส่วนเสียหลักในระบบนิเวศของโรงงาน AI 'การขาดความไว้วางใจที่หมุนเวียน' นี้มีสาเหตุหลักมาจากความล้มเหลวของสภาพแวดล้อมการประมวลผลแบบดั้งเดิมในการเข้ารหัสข้อมูลขณะที่กำลังใช้งาน
- เจ้าของโมเดลเทียบกับผู้ให้บริการโครงสร้างพื้นฐาน: เจ้าของโมเดลลงทุนอย่างมากในการพัฒนาโมเดล AI ที่เป็นกรรมสิทธิ์ ซึ่งน้ำหนักและตรรกะของอัลกอริทึมแสดงถึงทรัพย์สินทางปัญญาที่สำคัญ พวกเขาไม่สามารถไว้วางใจโดยนัยว่าระบบปฏิบัติการโฮสต์, ไฮเปอร์ไวเซอร์, หรือแม้แต่ผู้ดูแลระบบระดับรูทจะไม่ตรวจสอบ, ขโมย, หรือดึงโมเดลอันมีค่าของพวกเขาเมื่อถูกปรับใช้บนโครงสร้างพื้นฐานที่ใช้ร่วมกัน
- ผู้ให้บริการโครงสร้างพื้นฐานเทียบกับเจ้าของโมเดล/ผู้เช่า: ในทางกลับกัน ผู้ที่จัดการและดำเนินการฮาร์ดแวร์และคลัสเตอร์ Kubernetes ซึ่งคือผู้ให้บริการโครงสร้างพื้นฐาน ไม่สามารถไว้วางใจอย่างสุ่มสี่สุ่มห้าว่าภาระงานของเจ้าของโมเดลหรือผู้เช่านั้นไม่เป็นอันตราย มีความเสี่ยงอย่างต่อเนื่องของโค้ดที่เป็นอันตราย, ความพยายามในการยกระดับสิทธิ์, หรือการละเมิดขอบเขตความปลอดภัยของโฮสต์ที่ฝังอยู่ในแอปพลิเคชัน AI ที่ถูกปรับใช้
- ผู้เช่า (เจ้าของข้อมูล) เทียบกับเจ้าของโมเดลและผู้ให้บริการโครงสร้างพื้นฐาน: เจ้าของข้อมูลซึ่งเป็นผู้จัดหาข้อมูลที่ละเอียดอ่อนและมักจะอยู่ภายใต้ข้อบังคับซึ่งเป็นเชื้อเพลิงให้กับโมเดล AI ต้องการความมั่นใจที่แข็งแกร่งว่าข้อมูลของพวกเขาจะยังคงเป็นความลับ พวกเขาไม่สามารถไว้วางใจว่าผู้ให้บริการโครงสร้างพื้นฐานจะไม่ดูข้อมูลของพวกเขาในระหว่างการดำเนินการ และพวกเขาก็ไม่สามารถแน่ใจได้ว่าผู้ให้บริการโมเดลจะไม่นำข้อมูลไปใช้ในทางที่ผิดหรือรั่วไหลข้อมูลในระหว่างการอนุมานหรือการประมวลผล
การขาดความไว้วางใจที่แพร่หลายนี้เน้นย้ำถึงช่องโหว่ที่สำคัญ: ในการประมวลผลแบบดั้งเดิม ข้อมูลไม่ได้ถูกเข้ารหัสในขณะที่กำลังประมวลผลอยู่ สิ่งนี้ทำให้ข้อมูลที่ละเอียดอ่อนและโมเดลที่เป็นกรรมสิทธิ์ถูกเปิดเผยในรูปแบบข้อความธรรมดาภายในหน่วยความจำและสามารถเข้าถึงได้โดยผู้ดูแลระบบ ซึ่งสร้างโปรไฟล์ความเสี่ยงที่ไม่สามารถยอมรับได้สำหรับการปรับใช้ AI ที่ทันสมัย
การประมวลผลและคอนเทนเนอร์ที่เป็นความลับ: รากฐานของความไว้วางใจใน AI
การประมวลผลที่เป็นความลับ (Confidential computing) กลายเป็นทางออกที่สำคัญสำหรับภาวะกลืนไม่เข้าคายไม่ออกด้านความไว้วางใจอย่างลึกซึ้งนี้ มันเปลี่ยนแปลงภูมิทัศน์ความปลอดภัยโดยพื้นฐานด้วยการทำให้แน่ใจว่าข้อมูลและโมเดลยังคงได้รับการปกป้องด้วยการเข้ารหัสตลอดวงจรการทำงานทั้งหมด ไม่ใช่แค่ขณะที่ไม่ได้ใช้งาน (at rest) หรืออยู่ระหว่างส่งผ่าน (in transit) สิ่งนี้ทำได้โดยใช้ประโยชน์จาก Trusted Execution Environments (TEEs) ที่ได้รับการสนับสนุนจากฮาร์ดแวร์ ซึ่งสร้างพื้นที่หน่วยความจำที่แยกออกและเข้ารหัส ซึ่งการคำนวณที่ละเอียดอ่อนสามารถเกิดขึ้นได้โดยไม่เปิดเผยต่อระบบปฏิบัติการโฮสต์หรือไฮเปอร์ไวเซอร์
ในขณะที่การประมวลผลที่เป็นความลับเป็นรากฐานฮาร์ดแวร์ที่สำคัญ Confidential Containers (CoCo) ได้นำแนวคิดด้านความปลอดภัยนี้มาใช้งานจริงโดยเฉพาะสำหรับสภาพแวดล้อม Kubernetes CoCo อนุญาตให้พอด Kubernetes ทำงานภายใน TEEs ที่ได้รับการสนับสนุนจากฮาร์ดแวร์เหล่านี้ โดยไม่ต้องมีการเปลี่ยนแปลงหรือเขียนโค้ดแอปพลิเคชันใหม่ แทนที่จะแชร์เคอร์เนลของโฮสต์ แต่ละพอดจะถูกห่อหุ้มอย่างโปร่งใสภายในเครื่องเสมือน (VM) ที่แยกด้วยฮาร์ดแวร์น้ำหนักเบา ซึ่งขับเคลื่อนโดย Kata Containers วิธีการที่เป็นนวัตกรรมนี้ช่วยรักษากระบวนการทำงานและเครื่องมือแบบ cloud-native ที่มีอยู่ ในขณะที่บังคับใช้ขอบเขตการแยกที่เข้มงวด ช่วยยกระดับความปลอดภัยโดยไม่กระทบต่อความคล่องตัวในการดำเนินงาน
สำหรับผู้ให้บริการโมเดล ภัยคุกคามจากการขโมยน้ำหนักโมเดลที่เป็นกรรมสิทธิ์เป็นข้อกังวลสูงสุด CoCo จัดการปัญหานี้โดยตรงโดยการนำระบบปฏิบัติการโฮสต์และไฮเปอร์ไวเซอร์ออกจากสมการความไว้วางใจที่สำคัญ เมื่อโมเดล AI ถูกปรับใช้ภายใน Confidential Container โมเดลจะยังคงถูกเข้ารหัส หลังจากที่ฮาร์ดแวร์ตรวจสอบความสมบูรณ์และความปลอดภัยของ TEE enclave ทางคณิตศาสตร์ผ่านกระบวนการที่เรียกว่าการรับรองระยะไกล (remote attestation) เท่านั้น บริการ Key Broker Service (KBS) เฉพาะทางจึงจะปล่อยคีย์ถอดรหัสที่จำเป็น คีย์นี้จะถูกส่งไปยังหน่วยความจำที่ได้รับการปกป้องภายใน TEE โดยเฉพาะ เพื่อให้มั่นใจว่าน้ำหนักโมเดลจะไม่ถูกเปิดเผยในรูปแบบข้อความธรรมดาต่อสภาพแวดล้อมโฮสต์ แม้กระทั่งกับผู้ดูแลระบบที่มีสิทธิ์สูงก็ตาม
สถาปัตยกรรมอ้างอิง Zero-Trust ของ NVIDIA สำหรับโรงงาน AI ที่ปลอดภัย
NVIDIA ได้ร่วมมือกับชุมชนโอเพ่นซอร์ส Confidential Containers community ในการพัฒนา สถาปัตยกรรมอ้างอิง ที่ครอบคลุมสำหรับสแต็กซอฟต์แวร์ CoCo แผนงานนี้กำหนดแนวทางแบบ Full-stack ที่เป็นมาตรฐานสำหรับการสร้างโรงงาน AI แบบ Zero-Trust บนโครงสร้างพื้นฐานแบบ Bare-metal มันสรุปอย่างละเอียดถึงวิธีการผสานรวมส่วนประกอบฮาร์ดแวร์และซอฟต์แวร์ที่ทันสมัยเพื่อปรับใช้โมเดลล้ำสมัยได้อย่างปลอดภัย ปกป้องทั้งข้อมูลที่ละเอียดอ่อนและทรัพย์สินทางปัญญาจากการเปิดเผยต่อสภาพแวดล้อมโฮสต์
เสาหลักของสถาปัตยกรรมที่แข็งแกร่งนี้คือ:
| เสาหลัก | คำอธิบาย |
|---|---|
| Hardware Root of Trust | ใช้ Trusted Execution Environments (TEEs) ของ CPU จับคู่กับ GPU ที่เป็นความลับของ NVIDIA (เช่น NVIDIA Hopper, NVIDIA Blackwell) สำหรับภาระงาน AI ที่เร่งด้วยฮาร์ดแวร์และเข้ารหัสหน่วยความจำ |
| Kata Containers Runtime | ห่อหุ้ม Kubernetes Pods มาตรฐานใน Utility VMs (UVMs) น้ำหนักเบาที่แยกด้วยฮาร์ดแวร์ ให้การแยกที่แข็งแกร่งแทนการแชร์เคอร์เนลของโฮสต์ |
| Hardened Micro-Guest Environment | ใช้ระบบปฏิบัติการ guest ที่น้อยที่สุดแบบ distro-less ซึ่งมี chiseled root filesystem และ NVIDIA Runtime Container (NVRC) สำหรับระบบ init ที่ปลอดภัย ช่วยลดพื้นที่การโจมตีของ VM ได้อย่างมาก |
| Attestation Service | ตรวจสอบความสมบูรณ์ของสภาพแวดล้อมฮาร์ดแวร์ด้วยการเข้ารหัสก่อนที่จะปล่อยคีย์ถอดรหัสโมเดลหรือความลับที่ละเอียดอ่อนไปยัง guest ซึ่งมักจะเกี่ยวข้องกับ Key Broker Service (KBS) |
| Confidential Workload Lifecycle | อำนวยความสะดวกในการดึงอิมเมจที่เข้ารหัสและลงนาม (คอนเทนเนอร์, โมเดล, อาร์ติแฟกต์) อย่างปลอดภัยโดยตรงเข้าสู่หน่วยความจำ TEE ที่เข้ารหัส ป้องกันการเปิดเผยขณะไม่ได้ใช้งานหรืออยู่ระหว่างส่งผ่าน และเปิดใช้งานนโยบายอินเทอร์เฟซแบบละเอียด |
| Native Kubernetes & GPU Operator Integration | เปิดใช้งานการจัดการสแต็กทั้งหมดโดยใช้ Kubernetes primitives มาตรฐานและ NVIDIA GPU Operator ช่วยให้สามารถปรับใช้แอปพลิเคชัน AI แบบ 'ยกและย้าย' (lift-and-shift) โดยไม่ต้องเขียนโค้ดใหม่ |
สถาปัตยกรรมนี้ช่วยให้มั่นใจว่าภาระงาน AI จะได้รับประโยชน์จากประสิทธิภาพของ GPU ของ NVIDIA ในขณะที่ถูกห่อหุ้มอยู่ภายในขอบเขตที่ปลอดภัยด้วยการเข้ารหัส
ทำความเข้าใจโมเดลภัยคุกคามของ CoCo และขอบเขตความไว้วางใจในความปลอดภัยของ AI
Confidential Containers (CoCo) ทำงานภายใต้ โมเดลภัยคุกคาม ที่กำหนดไว้อย่างเข้มงวด ภายในโมเดลนี้ เลเยอร์โครงสร้างพื้นฐานทั้งหมด ซึ่งรวมถึงระบบปฏิบัติการโฮสต์ ไฮเปอร์ไวเซอร์ และอาจรวมถึงผู้ให้บริการคลาวด์เอง ก็ถือว่าไม่น่าเชื่อถือโดยเนื้อแท้ ข้อสมมติฐานพื้นฐานนี้มีความสำคัญอย่างยิ่งต่อแนวทาง Zero-Trust
แทนที่จะพึ่งพาความระมัดระวังหรือความซื่อสัตย์ของผู้ดูแลโครงสร้างพื้นฐานในการบังคับใช้การควบคุมความปลอดภัย CoCo ได้เปลี่ยนขอบเขตความไว้วางใจหลักไปที่ Trusted Execution Environments (TEEs) ที่ได้รับการสนับสนุนจากฮาร์ดแวร์อย่างมีกลยุทธ์ ซึ่งหมายความว่าภาระงาน AI จะดำเนินการภายในสภาพแวดล้อมเสมือนที่เข้ารหัส ซึ่งเนื้อหาในหน่วยความจำไม่สามารถเข้าใจได้สำหรับโฮสต์ ที่สำคัญ ความลับที่ละเอียดอ่อน เช่น คีย์ถอดรหัสโมเดล จะถูกปล่อยออกมา หลังจากที่ สภาพแวดล้อมการทำงานได้พิสูจน์ความสมบูรณ์และของแท้ของตนเองด้วยการเข้ารหัสผ่านการรับรองระยะไกลเท่านั้น
อย่างไรก็ตาม การทำความเข้าใจขอบเขตที่แน่นอนของการปกป้องนี้—สิ่งที่ CoCo ปกป้องและสิ่งที่อยู่นอกเหนือขอบเขตของมัน—เป็นสิ่งสำคัญ
สิ่งที่ CoCo ปกป้อง
CoCo ให้การรับประกันที่แข็งแกร่งสำหรับทั้งความลับและความสมบูรณ์ในระหว่างการดำเนินการของภาระงาน AI:
- การปกป้องข้อมูลและโมเดล: การเข้ารหัสหน่วยความจำเป็นรากฐานสำคัญ ช่วยป้องกันไม่ให้สภาพแวดล้อมโฮสต์เข้าถึงข้อมูลที่ละเอียดอ่อน น้ำหนักโมเดลที่เป็นกรรมสิทธิ์ หรือเพย์โหลดการอนุมานในขณะที่ภาระงานกำลังทำงานอยู่ภายใน TEE
- ความสมบูรณ์ของการดำเนินการ: การรับรองระยะไกลมีบทบาทสำคัญโดยการตรวจสอบว่าภาระงานกำลังทำงานอยู่ภายในสภาพแวดล้อมที่เชื่อถือได้และไม่ถูกบุกรุกจริง โดยมีการวัดซอฟต์แวร์ที่คาดหวังก่อนที่จะมีการปล่อยความลับที่ละเอียดอ่อนหรือคีย์ถอดรหัสโมเดล
- การจัดการอิมเมจและสตอเรจที่ปลอดภัย: อิมเมจคอนเทนเนอร์จะถูกดึง ตรวจสอบ และแตกไฟล์โดยตรงภายในสภาพแวดล้อม guest ที่ปลอดภัยและเข้ารหัส สิ่งนี้ทำให้มั่นใจได้ว่าโครงสร้างพื้นฐานของโฮสต์ไม่สามารถตรวจสอบหรือเปลี่ยนแปลงโค้ดแอปพลิเคชันหรืออาร์ติแฟกต์โมเดลที่มีค่าได้ในทุกจุด
- การป้องกันจากการเข้าถึงระดับโฮสต์: สถาปัตยกรรมนี้ปกป้องภาระงานจากการกระทำของโฮสต์ที่มีสิทธิ์ เครื่องมือแก้ไขข้อบกพร่องของผู้ดูแลระบบ การตรวจสอบหน่วยความจำ หรือการล้างดิสก์โดยโฮสต์ ไม่สามารถเปิดเผยเนื้อหาที่เป็นความลับของภาระงาน AI ที่กำลังทำงานอยู่ได้
สิ่งที่ CoCo ไม่ได้ปกป้อง
แม้ว่าจะมีประสิทธิภาพสูง แต่ความเสี่ยงและเวกเตอร์การโจมตีบางอย่างอยู่นอกขอบเขตโดยธรรมชาติของสถาปัตยกรรม CoCo:
- ช่องโหว่ของแอปพลิเคชัน: CoCo รับรองสภาพแวดล้อมการทำงานที่ได้รับการตรวจสอบและเป็นความลับ แต่ไม่ได้แก้ไขหรือป้องกันช่องโหว่ภายในโค้ดแอปพลิเคชัน AI เองโดยเนื้อแท้ หากแอปพลิเคชันมีข้อผิดพลาดที่นำไปสู่การรั่วไหลของข้อมูลหรือการประมวลผลที่ไม่ถูกต้อง CoCo ไม่สามารถบรรเทาปัญหานี้ได้
- การโจมตีด้านความพร้อมใช้งาน: จุดมุ่งเน้นหลักของ CoCo คือความลับและความสมบูรณ์ ไม่ได้ป้องกันการโจมตีแบบปฏิเสธการให้บริการ (DoS) หรือการโจมตีด้านความพร้อมใช้งานอื่น ๆ ที่มุ่งเป้าไปที่การขัดขวางบริการมากกว่าการขโมยข้อมูล มาตรการเช่นโครงสร้างพื้นฐานสำรองและการป้องกันระดับเครือข่ายยังคงจำเป็น
- ความปลอดภัยของเครือข่าย: ข้อมูลระหว่างส่งผ่าน (in transit) ความปลอดภัยของปลายทางเครือข่าย และช่องโหว่ในโปรโตคอลเครือข่ายอยู่นอกเหนือการป้องกันโดยตรงของ TEE ช่องทางการสื่อสารที่ปลอดภัย (เช่น TLS/SSL) และการแบ่งส่วนเครือข่ายที่แข็งแกร่งเป็นข้อกำหนดเสริม สำหรับข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับการรักษาความปลอดภัย AI โปรดพิจารณาสำรวจกลยุทธ์ในการ ยับยั้งการใช้ AI ในทางที่ผิด
การสร้างอนาคตของ AI ที่ปลอดภัย
การเดินทางของ AI จากการทดลองสู่การผลิตต้องการการเปลี่ยนแปลงกระบวนทัศน์ด้านความปลอดภัย องค์กรต่างๆ ไม่ได้เพียงแค่ปรับใช้โมเดลอีกต่อไปแล้ว แต่กำลังสร้างโรงงาน AI ที่ซับซ้อนซึ่งผลิตปัญญาในวงกว้าง สถาปัตยกรรม Zero-Trust ของ NVIDIA ที่ขับเคลื่อนโดย Confidential Containers และ TEEs ที่ได้รับการสนับสนุนจากฮาร์ดแวร์ เป็นรากฐานที่สำคัญสำหรับยุคใหม่นี้ ด้วยการจัดการกับภาวะกลืนไม่เข้าคายไม่ออกด้านความไว้วางใจโดยธรรมชาติอย่างพิถีพิถัน และการให้การรับประกันด้วยการเข้ารหัสที่แข็งแกร่ง องค์กรสามารถปรับใช้โมเดลที่เป็นกรรมสิทธิ์และประมวลผลข้อมูลที่ละเอียดอ่อนได้อย่างมั่นใจ เร่งการนำ AI มาใช้โดยไม่กระทบต่อความปลอดภัย แนวทางนี้ไม่เพียงแต่ปกป้องทรัพย์สินทางปัญญาและข้อมูลส่วนตัวเท่านั้น แต่ยังส่งเสริมระดับความไว้วางใจใหม่ตลอดวงจรการพัฒนาและการปรับใช้ AI ทั้งหมด ในขณะที่ AI ยังคงพัฒนาอย่างต่อเนื่อง การรวมกรอบความปลอดภัยขั้นสูงดังกล่าวจะมีความสำคัญสูงสุดในการตระหนักถึงศักยภาพการเปลี่ยนแปลงที่เต็มเปี่ยม นอกจากนี้ การร่วมมือเชิงกลยุทธ์อย่างต่อเนื่องระหว่างผู้นำอุตสาหกรรม เช่น AWS และ NVIDIA ที่กระชับความร่วมมือเชิงกลยุทธ์เพื่อเร่ง AI เน้นย้ำถึงความมุ่งมั่นของอุตสาหกรรมในการพัฒนาโซลูชัน AI ที่ปลอดภัยและปรับขนาดได้
แหล่งที่มา
https://developer.nvidia.com/blog/building-a-zero-trust-architecture-for-confidential-ai-factories/คำถามที่พบบ่อย
What is a zero-trust AI factory and why is it important for enterprises?
What is the 'trust dilemma' in deploying AI models in shared infrastructure?
How does confidential computing enhance the security of AI models and data?
What are Confidential Containers (CoCo), and how do they operationalize confidential computing for Kubernetes?
What are the core pillars of NVIDIA's reference architecture for zero-trust AI factories?
What security aspects are *not* covered by Confidential Containers (CoCo)?
อัปเดตข่าวสาร
รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ
