Code Velocity
AI ระดับองค์กร

การผลิตโทเคนของ AI Factory: NVIDIA Mission Control 3.0 เพิ่มประสิทธิภาพ

·7 นาทีอ่าน·NVIDIA·แหล่งที่มา
แชร์
แดชบอร์ด NVIDIA Mission Control 3.0 แสดงการผลิตโทเคนของ AI factory ที่ได้รับการปรับปรุงและประสิทธิภาพการดำเนินงาน

title: "การผลิตโทเคนของ AI Factory: NVIDIA Mission Control 3.0 เพิ่มประสิทธิภาพ" slug: "accelerate-token-production-in-ai-factories-using-unified-services-and-real-time-ai" date: "2026-04-01" lang: "th" source: "https://developer.nvidia.com/blog/accelerate-token-production-in-ai-factories-using-unified-services-and-real-time-ai/" category: "AI ระดับองค์กร" keywords:

  • AI factory
  • การผลิตโทเคน
  • NVIDIA Mission Control
  • AI แบบเรียลไทม์
  • บริการแบบรวมศูนย์
  • multi-tenancy
  • การจัดการพลังงาน
  • AIOps
  • ประสิทธิภาพของ GPU
  • ดาต้าเซ็นเตอร์
  • โครงสร้างพื้นฐาน AI
  • การจัดระเบียบเวิร์กโหลด meta_description: "NVIDIA Mission Control 3.0 ปฏิวัติการผลิตโทเคนของ AI factory ด้วยบริการแบบรวมศูนย์, AI แบบเรียลไทม์ และการจัดการพลังงานอัจฉริยะ ค้นพบประสิทธิภาพที่เพิ่มขึ้น, multi-tenancy ที่ปลอดภัย และ AIOps เชิงคาดการณ์เพื่อเพิ่มผลผลิตของ GPU ให้สูงสุด" image: "/images/articles/accelerate-token-production-in-ai-factories-using-unified-services-and-real-time-ai.png" image_alt: "แดชบอร์ด NVIDIA Mission Control 3.0 แสดงการผลิตโทเคนของ AI factory ที่ได้รับการปรับปรุงและประสิทธิภาพการดำเนินงาน" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "NVIDIA Mission Control 3.0 คืออะไร และช่วยเร่งการผลิตโทเคนของ AI factory ได้อย่างไร?" answer: "NVIDIA Mission Control 3.0 คือชุดซอฟต์แวร์ขั้นสูงที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพการทำงานของ AI factory ซึ่งสร้างขึ้นบนสถาปัตยกรรมอ้างอิงของ NVIDIA มันเร่งการผลิตโทเคนโดยการจัดหา control plane แบบรวมศูนย์พร้อมสถาปัตยกรรมแบบโมดูลาร์ที่ขับเคลื่อนด้วย API ทำให้สามารถรวมเข้าด้วยกันและปรับแต่งได้อย่างรวดเร็ว คุณสมบัติหลัก ได้แก่ การจัดสรรพลังงานอัจฉริยะ, การแยกองค์กรหลายองค์กรที่แข็งแกร่งเพื่อ multi-tenancy ที่ปลอดภัย และ AIOps เชิงคาดการณ์สำหรับการตรวจจับและแก้ไขความผิดปกติแบบเรียลไทม์ ทั้งหมดนี้มุ่งเป้าไปที่การเพิ่มประสิทธิภาพของ GPU และผลผลิตต่อวัตต์ให้สูงสุด มันเปลี่ยนตัวชี้วัดประสิทธิภาพหลัก (KPIs) ด้านการดำเนินงานจากเมตริกการใช้งานแบบดั้งเดิมไปสู่การมุ่งเน้นที่การสร้างโทเคนโดยตรง"
  • question: "Mission Control 3.0 ช่วยเพิ่มความยืดหยุ่นและความคล่องตัวในสภาพแวดล้อม AI factory ได้อย่างไร?" answer: "Mission Control 3.0 นำเสนอสถาปัตยกรรมแบบ layered ที่ขับเคลื่อนด้วย API พร้อมบริการแบบโมดูลาร์ ซึ่งช่วยเพิ่มความคล่องตัวได้อย่างมากเมื่อเทียบกับชุดซอฟต์แวร์รุ่นก่อนหน้าที่เชื่อมโยงกันอย่างแน่นหนา การออกแบบนี้ช่วยให้รองรับฮาร์ดแวร์ NVIDIA ล่าสุดได้อย่างรวดเร็ว และช่วยให้ผู้ผลิตอุปกรณ์ดั้งเดิม (OEMs) และผู้จำหน่ายซอฟต์แวร์อิสระ (ISVs) สามารถรวมความสามารถของ Mission Control เข้ากับระบบนิเวศของตนได้อย่างราบรื่น องค์กรต่างๆ ได้รับความยืดหยุ่นและทางเลือกที่ไม่เคยมีมาก่อนในชุดซอฟต์แวร์ ทำให้พวกเขาสามารถปรับแต่งโซลูชันให้ตรงกับความต้องการทางธุรกิจและเทคโนโลยีที่เฉพาะเจาะจง ซึ่งขับเคลื่อนการปรับใช้ที่เร็วขึ้นและการปรับแต่งที่ง่ายขึ้น"
  • question: "ประโยชน์ของฟีเจอร์การแยกองค์กรหลายองค์กรใน Mission Control 3.0 คืออะไร?" answer: "ฟีเจอร์การแยกองค์กรหลายองค์กรใน Mission Control 3.0 มีความสำคัญอย่างยิ่งต่อการแบ่งปันโครงสร้างพื้นฐาน AI อย่างปลอดภัยและคุ้มค่า โดยการเปลี่ยน management stack ให้เป็นสถาปัตยกรรมแบบ software-defined, virtualized พร้อม compute node และ management node เฉพาะสำหรับแต่ละองค์กร ทำให้เกิดการแยก tenant อย่างสมบูรณ์ การแบ่งส่วนเครือข่ายโดยใช้ VXLAN สำหรับ Spectrum-X Ethernet และ PKeys สำหรับ Quantum InfiniBand ช่วยเพิ่มความปลอดภัย ยิ่งไปกว่านั้น วิธีนี้ช่วยลดขนาดโครงสร้างพื้นฐานการจัดการทางกายภาพ ลดต้นทุนรวมในการเป็นเจ้าของ และช่วยให้ผู้ดูแลระบบสามารถรองรับหลายองค์กรบนโครงสร้างพื้นฐานที่ใช้ร่วมกันโดยไม่กระทบต่อความปลอดภัยหรือประสิทธิภาพ"
  • question: "Mission Control 3.0 จัดการข้อจำกัดการจัดการพลังงานใน AI factory ได้อย่างไร?" answer: "Mission Control 3.0 ยกระดับการจัดการพลังงานให้เป็น scheduling primitive ระดับเฟิร์สคลาสผ่านบริการ domain power ที่รวมเข้าด้วยกัน วิธีการเชิงรุกนี้ช่วยให้ AI factory เพิ่มประสิทธิภาพการผลิตโทเคนภายในขีดจำกัดพลังงานที่กำหนดไว้ มันช่วยให้สามารถจัดวางเวิร์กโหลดแบบ power-aware ทั่วทั้งสภาพแวดล้อม Slurm และ Kubernetes (ผ่าน NVIDIA Run:ai) รองรับโปรไฟล์ MAX-P และ MAX-Q สำหรับประสิทธิภาพหรือประสิทธิผล และใช้ประโยชน์จากการกำหนดเส้นทางการจองแบบ rack-aware และ topology-aware ระบบที่ครอบคลุมนี้ตรวจสอบและเพิ่มประสิทธิภาพการใช้พลังงานอย่างต่อเนื่อง เพื่อให้มั่นใจถึงผลผลิตโทเคนต่อวัตต์สูงสุดโดยไม่เกินขีดจำกัดของสิ่งอำนวยความสะดวก"
  • question: "AIOps มีบทบาทอย่างไรในการเพิ่มประสิทธิภาพการทำงานของ AI factory ด้วย Mission Control 3.0?" answer: "AIOps ใน Mission Control 3.0 ซึ่งขับเคลื่อนโดย NVIDIA AIOps Collector และ Platform Stacks (NACPS) มีความสามารถในการตรวจจับความผิดปกติขั้นสูงและเชิงคาดการณ์ หัวใจสำคัญคือโมเดล AI cluster ซึ่งเป็นการแสดงโครงสร้างพื้นฐานและเวิร์กโหลดแบบกราฟที่รับรู้ถึงโทโพโลยี โมเดลนี้รวมการเรียนรู้ของเครื่องแบบ unsupervised/supervised, การประมวลผลภาษาธรรมชาติสำหรับการวิเคราะห์บันทึก และเวิร์กโฟลว์การแก้ไขอัตโนมัติ วิธีการแบบบูรณาการนี้ช่วยให้ผู้ดูแลระบบก้าวข้ามแดชบอร์ดแบบตอบสนอง โดยการระบุและแก้ไขปัญหาที่อาจส่งผลกระทบต่อประสิทธิภาพล่วงหน้าแบบเรียลไทม์ ซึ่งช่วยลดเวลาหยุดทำงานและเพิ่มเวลาใช้งาน GPU ให้สูงสุด"
  • question: "NVIDIA Mission Control 3.0 กำหนดตัวชี้วัดประสิทธิภาพหลักสำหรับ AI factory ใหม่ได้อย่างไร?" answer: "Mission Control 3.0 กำหนดตัวชี้วัดประสิทธิภาพหลัก (KPIs) ด้านการดำเนินงานสำหรับ AI factory ใหม่โดยพื้นฐาน แทนที่จะมุ่งเน้นไปที่เมตริกแบบดั้งเดิม เช่น การใช้ทรัพยากรทั่วไป มันเปลี่ยนไปมุ่งเน้นที่การวัดผลผลิตที่เป็นรูปธรรม เช่น การผลิตโทเคนต่อ GPU, ต่อ rack และต่อวัตต์ การเปลี่ยนแปลงนี้ช่วยให้ผู้ดูแลระบบ AI factory สามารถปรับแต่งและเพิ่มประสิทธิภาพทุกเมกะวัตต์ของพลังงานและทุกวงจรของการประมวลผลเพื่อสร้างโทเคนสูงสุด ความสัมพันธ์โดยตรงกับผลผลิตนี้ทำให้มั่นใจได้ว่าความพยายามในการดำเนินงานทั้งหมดสอดคล้องกับการเพิ่มผลตอบแทนทางเศรษฐกิจและการแข่งขันของ AI factory ให้สูงสุด"
  • question: "NVIDIA Run:ai คืออะไร และการรวมเข้าด้วยกันเป็นประโยชน์ต่อผู้ใช้ Mission Control 3.0 อย่างไร?" answer: "NVIDIA Run:ai คือแพลตฟอร์มการจัดระเบียบเวิร์กโหลดที่รวมอยู่ใน Mission Control stack ซึ่งออกแบบมาเพื่อจัดการและเพิ่มประสิทธิภาพเวิร์กโหลด AI ในสภาพแวดล้อมที่หลากหลาย การรวมเข้ากับ Mission Control 3.0 นำมาซึ่งประโยชน์ที่สำคัญ โดยเฉพาะอย่างยิ่งในการจัดการพลังงาน Run:ai ช่วยให้สามารถจัดวางเวิร์กโหลดแบบ power-aware สำหรับทั้งเวิร์กโหลด Slurm แบบดั้งเดิมและ Kubernetes-native ทำให้บริการ domain power สามารถใช้โปรไฟล์ MAX-P/MAX-Q ได้อย่างมีประสิทธิภาพ และเพิ่มประสิทธิภาพการจัดสรรทรัพยากรตามข้อจำกัดด้านพลังงาน สิ่งนี้ทำให้มั่นใจได้ว่า AI factory สามารถบรรลุประสิทธิภาพหรือประสิทธิผลสูงสุด โดยรักษาสมดุลระหว่างปริมาณงานกับการใช้พลังงาน"

ในภูมิทัศน์ AI ที่เปลี่ยนแปลงอย่างรวดเร็วในปัจจุบัน ประสิทธิภาพของ AI factory ก้าวข้ามขีดจำกัดของประสิทธิภาพเชิงทฤษฎีเพียงอย่างเดียว; มันกำหนดความเป็นไปได้ทางเศรษฐกิจ ความได้เปรียบทางการแข่งขัน และแม้กระทั่งการอยู่รอด การลดลงเพียง 1% ของเวลาใช้งาน GPU ที่มีประโยชน์ สามารถแปลเป็นโทเคนนับล้านที่สูญหายไปในแต่ละชั่วโมง ในขณะที่การติดขัดของเครือข่ายเพียงไม่กี่นาทีสามารถนำไปสู่การกู้คืนที่ยากลำบากนานหลายชั่วโมงได้ ยิ่งไปกว่านั้น การใช้พลังงานเกินพิกัดที่ระดับ rack สามารถนำไปสู่การที่พลังงานถูกจำกัดและลด "โทเคนต่อวัตต์" ลงอย่างมาก ซึ่งกัดกร่อนผลผลิตของ factory อย่างเงียบๆ ในวงกว้าง ในขณะที่ AI factory ขยายตัวเพื่อรองรับ GPU นับพันที่ขับเคลื่อนเวิร์กโหลดที่หลากหลายและมีความสำคัญต่อภารกิจ ภาระทางการเงินและการดำเนินงานของการติดขัดที่ไม่คาดฝัน ข้อจำกัดด้านพลังงานที่เข้มงวด ความล่าช้าที่ค้างอยู่ และการมองเห็นการดำเนินงานที่จำกัดก็เพิ่มขึ้นอย่างทวีคูณ

ทีมปฏิบัติการและผู้ดูแลระบบยุคใหม่ต้องการมากกว่าแดชบอร์ดแบบคงที่ พวกเขาต้องการความยืดหยุ่นและการมองการณ์ไกลที่ไม่เคยมีมาก่อน นี่คือความท้าทายที่ NVIDIA ตั้งใจที่จะแก้ไขด้วย NVIDIA Mission Control ซึ่งเป็นชุดซอฟต์แวร์แบบรวมศูนย์สำหรับ AI factory ที่สร้างขึ้นบนสถาปัตยกรรมอ้างอิงพื้นฐานของ NVIDIA และประมวลแนวทางปฏิบัติที่ดีที่สุดของพวกเขาภายใน control plane แบบรวมศูนย์ Mission Control เวอร์ชัน 3.0 ก้าวไปอีกขั้น โดยนำเสนอความยืดหยุ่นของสถาปัตยกรรมที่ปฏิวัติวงการ, การแยกองค์กรหลายองค์กรที่แข็งแกร่ง, การจัดสรรพลังงานอัจฉริยะ และ AIOps เชิงคาดการณ์เพื่อตรวจจับความผิดปกติและเพิ่มเมตริกที่สำคัญของการผลิตโทเคนให้สูงสุด

Four boxes describing benefits of NVIDIA Mission Control: Instant Operational Agility, Extensive Monitoring, Built-in Resiliency, Accelerated AI Token Production ภาพที่ 1. NVIDIA Mission Control มอบชุดซอฟต์แวร์ที่ได้รับการตรวจสอบพร้อมบริการสำหรับความคล่องตัวในการดำเนินงาน, การตรวจสอบ และความยืดหยุ่น

ความจำเป็นของการดำเนินงาน AI Factory ที่มีประสิทธิภาพ

การเปลี่ยนจากการวัดประสิทธิภาพเชิงทฤษฎีไปสู่ผลลัพธ์ทางเศรษฐกิจที่จับต้องได้ เน้นย้ำถึงความจำเป็นอย่างยิ่งยวดสำหรับประสิทธิภาพการดำเนินงานสูงสุดภายใน AI factory สิ่งเหล่านี้ไม่ใช่แค่ดาต้าเซ็นเตอร์ แต่เป็นระบบนิเวศที่ซับซ้อนและเปลี่ยนแปลงตลอดเวลา ซึ่งทุกเมกะวัตต์และทุกรอบการทำงานของ GPU มีความสัมพันธ์โดยตรงกับมูลค่าทางธุรกิจ ค่าใช้จ่ายที่เพิ่มขึ้นของความไร้ประสิทธิภาพในการดำเนินงาน—ตั้งแต่เวลาหยุดทำงานที่ไม่คาดคิดไปจนถึงโครงสร้างพื้นฐานที่ไม่ได้ใช้งานเต็มที่—เน้นย้ำถึงความต้องการที่เป็นสากลสำหรับระบบที่นำเสนอการจัดการเชิงรุก แทนที่จะเป็นการแก้ไขปัญหาแบบตั้งรับ ผู้ดูแลระบบ AI factory ต้องการแพลตฟอร์มเชิงกลยุทธ์ที่ไม่เพียงแต่ให้ข้อมูลเชิงลึกที่ลึกซึ้งเท่านั้น แต่ยังช่วยเพิ่มประสิทธิภาพทุกด้านของโครงสร้างพื้นฐานเพื่อป้องกันปัญหาคอขวดด้านประสิทธิภาพและเพิ่มปริมาณงานให้สูงสุด

สถาปัตยกรรมซอฟต์แวร์ที่คล่องตัวเพื่อความเร็วของ AI

NVIDIA Mission Control 3.0 มอบความคล่องตัวที่เพิ่มขึ้นใหม่ผ่านกรอบการทำงานแบบ layered, API-driven ที่ได้รับการออกแบบสถาปัตยกรรมใหม่ทั้งหมด การออกแบบแบบโมดูลาร์นี้แสดงถึงการก้าวกระโดดที่สำคัญจากชุดซอฟต์แวร์รุ่นก่อนที่เชื่อมโยงกันอย่างแน่นหนา ซึ่งมักจะต้องมีการออกเวอร์ชันที่ซิงโครไนซ์และการตรวจสอบที่ซับซ้อนในแพลตฟอร์มฮาร์ดแวร์จำนวนมาก ด้วยการใช้บริการแบบโมดูลาร์และส่วนประกอบโอเพนซอร์ส Mission Control 3.0 ช่วยเร่งการสนับสนุนนวัตกรรมฮาร์ดแวร์ NVIDIA ล่าสุดได้อย่างมาก

วิวัฒนาการทางสถาปัตยกรรมนี้นำมาซึ่งประโยชน์ที่สำคัญ โดยเฉพาะอย่างยิ่งสำหรับผู้ให้บริการระบบ OEM และผู้จำหน่ายซอฟต์แวร์อิสระ (ISVs) ทำให้พวกเขาสามารถฝังความสามารถของ Mission Control ลงในระบบนิเวศของตนได้โดยตรง ผลลัพธ์คือความยืดหยุ่นและทางเลือกที่ไม่มีใครเทียบได้สำหรับองค์กร ซึ่งช่วยให้พวกเขาสามารถปรับแต่งชุดซอฟต์แวร์ให้ตรงตามวัตถุประสงค์ทางธุรกิจและความต้องการทางเทคโนโลยีที่ไม่เหมือนใคร ซึ่งท้ายที่สุดแล้วจะส่งเสริมความเร็วของ AI และประสิทธิภาพการดำเนินงานที่มากขึ้น

การรักษาความปลอดภัยสภาพแวดล้อม AI Factory แบบ Multi-Tenant

ความท้าทายที่สำคัญที่องค์กรต้องเผชิญในปัจจุบันคือการสนับสนุนการแยกองค์กรหลายองค์กรอย่างปลอดภัยภายใน AI factory แบบรวมศูนย์ที่ใช้ร่วมกัน ในขณะที่สภาพแวดล้อมเหล่านี้เปลี่ยนจากศูนย์กลางการวิจัยและการทดลองไปสู่การปฏิบัติงานระดับการผลิตที่มีความสำคัญต่อภารกิจ ความต้องการการแยกองค์กรที่แข็งแกร่งและ multi-tenancy ที่ปลอดภัยบนโครงสร้างพื้นฐานที่ใช้ร่วมกันจึงมีความสำคัญสูงสุด

control plane ของ Mission Control ที่ได้รับการปรับปรุงช่วยเปลี่ยนการจัดการ AI factory ให้เป็นสถาปัตยกรรมแบบ software-defined, virtualized ที่ซับซ้อน บริการของ Mission Control ถูกแยกออกจาก management node ทางกายภาพ และปรับใช้บนแพลตฟอร์มที่ใช้ KVM โดยใช้ระบบอัตโนมัติที่ NVIDIA จัดหาให้ ในขณะที่ rack คอมพิวต์และ management node ยังคงเป็นเฉพาะสำหรับแต่ละองค์กร network switch ที่ใช้ร่วมกันก็ยังสามารถทำ multi-tenancy ที่แข็งแกร่งได้ผ่านการแบ่งส่วนทางตรรกะ: VXLAN สำหรับ NVIDIA Spectrum-X Ethernet และ PKeys สำหรับ NVIDIA Quantum InfiniBand วิธีการที่เป็นนวัตกรรมนี้ช่วยลดขนาดโครงสร้างพื้นฐานการจัดการทางกายภาพได้อย่างมาก สร้างการแยก tenant อย่างสมบูรณ์ และวางรากฐานที่ปลอดภัยสำหรับ AI factory แบบ multi-organization ซึ่งท้ายที่สุดจะลดต้นทุนรวมในการเป็นเจ้าของ สำหรับองค์กรที่เน้นความปลอดภัยที่เข้มงวด การรวมโซลูชันสำหรับการ สร้างระบบที่ขับเคลื่อนด้วย AI สำหรับการรวบรวมหลักฐานการปฏิบัติตามข้อกำหนด ควบคู่ไปกับ Mission Control 3.0 สามารถเพิ่มการกำกับดูแลและการตรวจสอบได้อีกด้วย

Diagram showcasing Org 0, Org 1, to Org n networks with isolation between NVIDIA Mission Control services including workload orchestration. ภาพที่ 2. การปรับใช้แบบ multi-org ด้วย NVIDIA Mission Control ใช้การจำลองเสมือนและ compute plane และ control plane ที่เฉพาะเจาะจงสำหรับแต่ละองค์กรที่ต้องการการแยกเครือข่าย

การจัดสรรพลังงานอัจฉริยะเพื่อโทเคนที่เพิ่มขึ้นสูงสุด

พลังงานได้กลายเป็นข้อจำกัดที่สำคัญยิ่งขึ้นและมักจะ "มองไม่เห็น" ต่อการผลิตโทเคนของ AI factory แม้ว่า GPU เจเนอเรชันใหม่แต่ละรุ่นจะให้ประสิทธิภาพที่เพิ่มขึ้นอย่างทวีคูณ แต่ขีดจำกัดพลังงานของโรงงานยังคงที่เนื่องจากความเป็นจริงทางเศรษฐกิจ เช่น ค่าสาธารณูปโภคและการปฏิบัติตามกฎระเบียบ ความท้าทายหลักคือวิธีการเพิ่มผลผลิตโทเคนและความหนาแน่นของ rack ให้สูงสุดโดยไม่เกินขีดจำกัดพลังงานที่เข้มงวดเหล่านี้

Mission Control เวอร์ชันก่อนหน้าเสนอความสามารถในการจัดการพลังงานที่จำเป็น แต่ส่วนใหญ่เป็นแบบตอบสนอง—มีการจัดกำหนดการงานก่อน และนโยบายพลังงานจะถูกบังคับใช้ในภายหลัง Mission Control 3.0 ได้พัฒนาสิ่งนี้โดยพื้นฐานด้วยการรวมบริการ domain power เข้าไปโดยตรง ซึ่งยกระดับพลังงานให้เป็น scheduling primitive ระดับเฟิร์สคลาส บริการนี้ช่วยให้องค์กรสามารถเพิ่มประสิทธิภาพการผลิตโทเคนในเชิงรุกโดยการรวมนโยบายพลังงานเข้ากับการจัดวางเวิร์กโหลดโดยตรง รองรับทั้งเวิร์กโหลด Slurm แบบดั้งเดิมและ Kubernetes-native โดยมีการจัดระเบียบอย่างราบรื่นโดย NVIDIA Run:ai ซึ่งตอนนี้ถูกรวมเข้ากับ Mission Control stack อย่างสมบูรณ์

บริการ domain power รองรับโปรไฟล์ MAX-P (ประสิทธิภาพสูงสุด) และ MAX-Q (ประสิทธิภาพสูงสุด) สำหรับงานการฝึกอบรมและการอนุมานที่หลากหลาย นอกจากนี้ยังให้การกำหนดเส้นทางการจองแบบ rack-aware และ topology-aware ที่ซับซ้อน โดยใช้ประโยชน์จากการรวม Mission Control เข้ากับระบบการจัดการอาคารของโรงงาน ตัวอย่างที่น่าสนใจของประสิทธิภาพแสดงให้เห็นดาต้าเซ็นเตอร์ที่ทำงานที่พลังงาน 85% โดยมีประสิทธิภาพลดลงเพียง 7% โดยใช้โปรไฟล์ MAX-Q การเพิ่มประสิทธิภาพแบบไดนามิกนี้มีความสำคัญอย่างยิ่งต่อ การเร่ง AI จากช่วงนำร่องสู่การผลิตจริง ในสถานการณ์จริง

Diagram shows connection between the domain power service, building management systems and the grid as well as between domain power service, resources schedulers, and compute. ภาพที่ 3. NVIDIA Mission Control ใช้บริการ domain power สำหรับการจัดการพลังงานที่ครอบคลุม ซึ่งตรวจสอบและเพิ่มประสิทธิภาพการใช้พลังงานใน AI factory อย่างต่อเนื่อง

Real-Time AIOps: จากแดชบอร์ดสู่การดำเนินการเชิงคาดการณ์

นอกเหนือจากบริการจัดการพลังงานใหม่ Mission Control 3.0 ยังช่วยเพิ่มความสามารถในการตรวจจับความผิดปกติที่มีอยู่ได้อย่างมากโดยการรวมเข้ากับ NVIDIA AIOps Collector และ Platform Stacks (NACPS) การผสานรวมที่แข็งแกร่งนี้ขับเคลื่อนการตรวจจับความผิดปกติเชิงคาดการณ์ที่ขับเคลื่อนด้วย AI ซึ่งช่วยย้ายการดำเนินงานไปไกลกว่าการตรวจสอบแบบตอบสนอง หัวใจสำคัญของ NACPS คือโมเดล AI cluster ที่ซับซ้อน—การแสดงผลแบบกราฟที่ให้มุมมองที่รับรู้ถึงโทโพโลยีทั่วทั้งส่วนประกอบโครงสร้างพื้นฐานทั้งหมด ซึ่งรวมถึง GPU, NVIDIA NVLink scale-up, NVIDIA Spectrum-X Ethernet หรือ NVIDIA Quantum InfiniBand East-West scale-out และ NVIDIA BlueField DPU North-South networking โดยการรวมมุมมองโครงสร้างพื้นฐานแบบละเอียดนี้เข้ากับโทโพโลยีงานภายใน cluster model, NACPS ใช้การเรียนรู้ของเครื่องแบบ unsupervised และ supervised ควบคู่ไปกับการวิเคราะห์บันทึกที่ขับเคลื่อนด้วย NLP เพื่อระบุความผิดปกติที่ละเอียดอ่อนและคาดการณ์ประสิทธิภาพที่อาจลดลง ซึ่งช่วยให้เวิร์กโฟลว์การแก้ไขอัตโนมัติ ลดเวลาหยุดทำงาน และรับประกันเวลาทำงานสูงสุดที่เป็นไปได้สำหรับเวิร์กโหลด AI ที่สำคัญ

หมวดหมู่ฟีเจอร์แนวทาง Mission Control รุ่นก่อนหน้าMission Control 3.0 (ใหม่)ประโยชน์หลัก
สถาปัตยกรรมเชื่อมโยงกันอย่างแน่นหนา, โมโนลิธิคโมดูลาร์, API-driven, ส่วนประกอบเปิดความคล่องตัวที่เพิ่มขึ้น, การรวมฮาร์ดแวร์ที่เร็วขึ้น, ความยืดหยุ่นของ OEM/ISV
Multi-Tenancyพื้นฐาน, การแยกทรัพยากรเสมือนจริง, การแยก VXLAN/PKeys, การควบคุมเฉพาะการแบ่งปันที่ปลอดภัยและคุ้มค่า, ลด TCO, การแยก tenant อย่างสมบูรณ์
การจัดการพลังงานการบังคับใช้นโยบายแบบตอบสนองscheduling primitive ระดับเฟิร์สคลาสเชิงรุก, บริการ Domainเพิ่มโทเคน/วัตต์สูงสุด, เพิ่มประสิทธิภาพ, การควบคุมแบบไดนามิก
AIOps และการตรวจจับความผิดปกติแดชบอร์ด, อิงตามเกณฑ์เชิงคาดการณ์, NACPS ที่ขับเคลื่อนด้วย AI, รับรู้ถึงโทโพโลยีการแก้ไขปัญหาเชิงรุก, ลดเวลาหยุดทำงาน, เพิ่มความน่าเชื่อถือ
ตัวชี้วัดประสิทธิภาพหลัก (KPIs) การดำเนินงานเมตริกการใช้ทั่วไปโทเคน/GPU, Rack, วัตต์ (เน้นผลผลิต)สัมพันธ์โดยตรงกับรายได้, การใช้ทรัพยากรที่เหมาะสม, เมตริกมูลค่าที่ชัดเจน
การจัดระเบียบเวิร์กโหลดเฉพาะสำหรับ NVIDIA Stackการรวม Slurm, Kubernetes (ผ่าน Run:ai)รองรับเวิร์กโหลด AI ที่หลากหลาย, การจัดกำหนดการที่ราบรื่น

การวัดความสำเร็จ: การผลิตโทเคนเป็นตัวชี้วัดประสิทธิภาพหลักขั้นสุดยอด

Mission Control 3.0 กำหนดนิยามใหม่ของตัวชี้วัดประสิทธิภาพหลัก (KPIs) ด้านการดำเนินงานสำหรับ AI factory โดยพื้นฐาน การก้าวข้ามเมตริกการใช้งานแบบดั้งเดิม ความสำเร็จจะถูกวัดโดยตรงในแง่ของ "การผลิตโทเคนต่อ GPU, ต่อ rack และต่อวัตต์" แนวทางที่เน้นผลผลิตนี้ช่วยให้ผู้ดูแลระบบ AI factory สามารถปรับแต่งและเพิ่มประสิทธิภาพทุกเมกะวัตต์ของพลังงานและทุกวงจรการประมวลผลเพื่อให้ได้ผลผลิตโทเคนสูงสุด ความสัมพันธ์โดยตรงกับผลผลิตพื้นฐานของ AI factory นี้ทำให้มั่นใจได้ว่าการตัดสินใจในการดำเนินงานทุกอย่างมีส่วนโดยตรงในการเพิ่มผลตอบแทนและข้อได้เปรียบทางการแข่งขันให้สูงสุด ทำให้การผลิตโทเคนเป็นมาตรการขั้นสูงสุดของความสำเร็จของ AI factory อย่างแท้จริง

NVIDIA Mission Control 3.0 คือก้าวที่ยิ่งใหญ่ในการจัดการ AI factory ด้วยการรวมสถาปัตยกรรมที่ยืดหยุ่น, multi-tenancy ที่ปลอดภัย, การจัดสรรพลังงานอัจฉริยะ และ AIOps เชิงคาดการณ์ มันมอบเครื่องมือที่จำเป็นสำหรับการเพิ่มประสิทธิภาพเวิร์กโหลด AI ลดต้นทุนการดำเนินงาน และเร่งนวัตกรรม AI ทั่วทั้งองค์กร

คำถามที่พบบ่อย

What is NVIDIA Mission Control 3.0 and how does it accelerate AI factory token production?
NVIDIA Mission Control 3.0 is an advanced software stack designed to optimize AI factory operations, built on NVIDIA reference architectures. It accelerates token production by providing a unified control plane with a modular, API-driven architecture, enabling rapid integration and customization. Key features include intelligent power orchestration, robust multi-organization isolation for secure multi-tenancy, and predictive AIOps for real-time anomaly detection and resolution, all aimed at maximizing GPU efficiency and output per watt. It transforms operational KPIs from traditional utilization metrics to a focus on direct token generation.
How does Mission Control 3.0 enhance flexibility and agility in AI factory environments?
Mission Control 3.0 introduces a layered, API-driven architecture with modular services, significantly improving agility compared to previous tightly coupled stacks. This design allows for rapid support of the latest NVIDIA hardware and enables OEMs and ISVs to seamlessly integrate Mission Control capabilities into their own ecosystems. Enterprises gain unprecedented flexibility and choice in their software stacks, allowing them to tailor solutions to specific business and technological needs, driving faster deployment and easier customization.
What are the benefits of the multi-organization isolation features in Mission Control 3.0?
The multi-organization isolation features in Mission Control 3.0 are crucial for secure and cost-effective sharing of AI infrastructure. By transforming the management stack into a software-defined, virtualized architecture with dedicated compute and management nodes per organization, it establishes hard tenant isolation. Network segmentation using VXLAN for Spectrum-X Ethernet and PKeys for Quantum InfiniBand further enhances security. This reduces the physical management infrastructure footprint, lowers the total cost of ownership, and allows operators to onboard multiple organizations onto shared infrastructure without compromising security or performance.
How does Mission Control 3.0 address power management constraints in AI factories?
Mission Control 3.0 elevates power management to a first-class scheduling primitive through its integrated domain power service. This proactive approach helps AI factories optimize token production within fixed power envelopes. It enables power-aware workload placement across Slurm and Kubernetes environments (via NVIDIA Run:ai), supports MAX-P and MAX-Q profiles for performance or efficiency, and leverages rack- and topology-aware reservation steering. This comprehensive system continuously monitors and optimizes power utilization, ensuring maximum token output per watt without exceeding facility limits.
What role does AIOps play in optimizing AI factory operations with Mission Control 3.0?
AIOps in Mission Control 3.0, powered by NVIDIA AIOps Collector and Platform Stacks (NACPS), provides advanced, predictive anomaly detection capabilities. At its core is an AI cluster model—a graph-based, topology-aware representation of infrastructure and workloads. This model combines unsupervised/supervised machine learning, natural language processing for log analysis, and automated remediation workflows. This integrated approach allows operators to move beyond reactive dashboards, proactively identifying and resolving potential performance-impacting issues in real-time, thereby minimizing downtime and maximizing the usable GPU time.
How does NVIDIA Mission Control 3.0 redefine key performance indicators for AI factories?
Mission Control 3.0 fundamentally redefines operational Key Performance Indicators (KPIs) for AI factories. Instead of focusing on traditional metrics like general resource utilization, it shifts the focus to concrete output measurements such as token production per GPU, per rack, and per watt. This change empowers AI factory operators to actively optimize every megawatt of power and every cycle of computing for maximal token generation. This direct correlation to output ensures that all operational efforts are aligned with maximizing the economic and competitive yield of the AI factory.
What is NVIDIA Run:ai and how does its integration benefit Mission Control 3.0 users?
NVIDIA Run:ai is a workload orchestration platform integrated into the Mission Control stack, designed to manage and optimize AI workloads across diverse environments. Its integration with Mission Control 3.0 brings significant benefits, particularly in power management. Run:ai enables power-aware workload placement for both traditional Slurm and Kubernetes-native workloads, allowing the domain power service to effectively apply MAX-P/MAX-Q profiles and optimize resource allocation based on power constraints. This ensures that AI factories can achieve optimal performance or efficiency, balancing throughput with power consumption.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์