Code Velocity
เครื่องมือสำหรับนักพัฒนา

ไลบรารี Omniverse: การผสานรวม AI เชิงกายภาพสำหรับแอปพลิเคชันที่มีอยู่

·7 นาทีอ่าน·NVIDIA·แหล่งที่มา
แชร์
ไลบรารีแบบโมดูลาร์ของ NVIDIA Omniverse ผสานรวมความสามารถของ AI เชิงกายภาพเข้ากับแอปพลิเคชันที่มีอยู่สำหรับการจำลองดิจิทัลทวินแบบเรียลไทม์

เปิดตัวไลบรารี NVIDIA Omniverse: เพิ่มขีดความสามารถในการผสานรวม AI เชิงกายภาพ

ที่งาน GTC 2026, NVIDIA ได้ประกาศการวิวัฒนาการที่สำคัญสำหรับแพลตฟอร์ม Omniverse โดยนำเสนอสถาปัตยกรรมแบบโมดูลาร์ที่ใช้ไลบรารี ซึ่งออกแบบมาเพื่อผสานรวมความสามารถ AI เชิงกายภาพขั้นสูงเข้ากับแอปพลิเคชันที่มีอยู่ได้อย่างราบรื่น การเปลี่ยนแปลงกระบวนทัศน์นี้ตอบสนองความต้องการที่สำคัญในการพัฒนาอุตสาหกรรมและหุ่นยนต์ ซึ่งรันไทม์แบบโมโนลิธิกมักจะขัดขวางการปรับขนาด การปรับใช้แบบไร้ส่วนหัว (headless deployment) และการผสานรวมกับระบบ CI/CD ที่มีอยู่ ด้วยการเปิดเผยส่วนประกอบหลักของ Omniverse—การเรนเดอร์ RTX, การจำลองที่ใช้ PhysX และไปป์ไลน์จัดเก็บข้อมูล—เป็น C API แบบสแตนด์อโลนพร้อมการเชื่อมโยง C++ และ Python, NVIDIA กำลังช่วยให้นักพัฒนาสามารถฝังฟังก์ชันการทำงานดิจิทัลทวินแบบเรียลไทม์และ AI เชิงกายภาพอันทรงพลังได้โดยไม่ต้องมีการปรับปรุงโครงสร้างสถาปัตยกรรมทั้งหมด ความเป็นโมดูลาร์นี้ช่วยให้สามารถเข้าถึงการจำลองที่มีความแม่นยำสูงได้อย่างแพร่หลาย ทำให้ AI เชิงกายภาพกลายเป็นความจริงที่จับต้องได้สำหรับองค์กรในวงกว้าง

AI เชิงกายภาพ ซึ่งหมายถึงระบบ AI ที่รับรู้, ให้เหตุผล และดำเนินการภายในสภาพแวดล้อมจำลองที่มีพื้นฐานทางกายภาพ กำลังเปลี่ยนแปลงวิธีการที่อุตสาหกรรมออกแบบและตรวจสอบระบบที่ซับซ้อนอย่างรวดเร็ว ตั้งแต่การเคลื่อนไหวของแขนหุ่นยนต์ไปจนถึงผังโรงงานทั้งหมด การฝึกอบรมและตรวจสอบนโยบาย AI ในสภาพแวดล้อมดิจิทัลทวินช่วยลดต้นทุนและเร่งวงจรการพัฒนาได้อย่างมาก ไลบรารี Omniverse ใหม่ ซึ่งรวมถึง 'ovrtx', 'ovphysx' และ 'ovstorage' ถูกกำหนดให้เป็นรากฐานของการเปลี่ยนแปลงนี้ โดยช่วยให้ธุรกิจสามารถใส่เทคโนโลยีการจำลองที่ล้ำสมัยของ NVIDIA เข้าไปในซอฟต์แวร์ที่เป็นกรรมสิทธิ์ของตนได้

สถาปัตยกรรมแบบโมดูลาร์เพื่อการผสานรวม AI เชิงกายภาพอย่างราบรื่น

การนำเสนอสถาปัตยกรรมที่เน้นไลบรารีเป็นหลักได้เปลี่ยนวิธีการที่นักพัฒนาโต้ตอบกับระบบนิเวศ NVIDIA Omniverse ไปอย่างสิ้นเชิง แทนที่จะนำเฟรมเวิร์กแอปพลิเคชันที่ครอบคลุมมาใช้ ทีมงานสามารถเลือกเรียกใช้ API สำหรับการเรนเดอร์ ฟิสิกส์ และการจัดเก็บข้อมูลของ Omniverse ได้โดยตรงจากกระบวนการและบริการของตนเอง วิธีการนี้ช่วยขจัดความท้าทายที่เกี่ยวข้องกับการผูกมัดกับเฟรมเวิร์ก การพึ่งพา UI และความแข็งแกร่งของสถาปัตยกรรมที่มักมาพร้อมกับการนำซอฟต์แวร์ขนาดใหญ่มาใช้

การออกแบบแบบโมดูลาร์นี้เป็นประโยชน์อย่างยิ่งสำหรับนักพัฒนาที่มีสแตกซอฟต์แวร์ที่จัดตั้งขึ้น ช่วยให้พวกเขาสามารถใช้ประโยชน์จากความสามารถอันทรงพลังของ Omniverse ได้โดยไม่ต้องมีการเขียนสถาปัตยกรรมใหม่ที่ก่อกวน ไลบรารีเหล่านี้ได้รับการออกแบบมาสำหรับการปรับใช้แบบไร้ส่วนหัว (headless-first deployment) เพื่อให้มั่นใจถึงประสิทธิภาพและการปรับขนาดที่เหมาะสมที่สุดสำหรับแอปพลิเคชันอุตสาหกรรมและหุ่นยนต์ที่ต้องการประสิทธิภาพสูง การเคลื่อนไหวเชิงกลยุทธ์นี้ของ NVIDIA ตอกย้ำความมุ่งมั่นในความยืดหยุ่นและโซลูชันที่เน้นนักพัฒนาเป็นศูนย์กลาง โดยวางตำแหน่ง Omniverse ให้เป็นชุดเครื่องมือที่ปรับเปลี่ยนได้สำหรับอนาคตของ AI

ไลบรารีหลักของ Omniverse: ovrtx, ovphysx และ ovstorage

ไลบรารีที่ประกาศใหม่นี้ให้ความสามารถที่แตกต่างกันแต่เชื่อมโยงถึงกัน โดยแต่ละไลบรารีได้รับการออกแบบมาเพื่อแก้ไขปัญหาการผสานรวมเฉพาะในการพัฒนาซอฟต์แวร์อุตสาหกรรม พวกเขาใช้ประโยชน์จากส่วนประกอบ Omniverse ที่มีอยู่ เช่น OpenUSD สำหรับการอธิบายฉากและสินทรัพย์ SimReady สำหรับสภาพแวดล้อมการจำลองคุณภาพสูง เพื่อให้มั่นใจถึงประสบการณ์การพัฒนาที่สอดคล้องและทรงพลัง

ไลบรารีความสามารถหลักผลกระทบทางวิศวกรรม
ovrtxการเรนเดอร์แบบ path-tracing และการจำลองเซ็นเซอร์ที่มีความแม่นยำสูงและประสิทธิภาพสูงแบบเรียลไทม์ผสานรวมการเรนเดอร์ RTX ที่ล้ำสมัยเข้ากับแอปพลิเคชันที่มีอยู่โดยตรง ช่วยให้สามารถรับรู้ของหุ่นยนต์แบบหลายโมดอล การสร้างข้อมูลสังเคราะห์ขั้นสูง และการแสดงผลภาพที่สมจริงสูงสำหรับดิจิทัลทวินและสภาพแวดล้อมจำลอง
ovphysxการจำลองฟิสิกส์แบบ USD-native ที่ความเร็วสูงเพิ่มการจำลองฟิสิกส์ที่ใช้ฮาร์ดแวร์เร่งความเร็วและน้ำหนักเบาเข้ากับแอปพลิเคชัน อำนวยความสะดวกในการแลกเปลี่ยนข้อมูลความเร็วสูงสำหรับการฝึกอบรมหุ่นยนต์ การผสานรวมลูปควบคุมแบบเรียลไทม์ และการโต้ตอบทางกายภาพที่แม่นยำในสถานการณ์อุตสาหกรรมที่ซับซ้อน
ovstorageไปป์ไลน์ข้อมูล AI เชิงกายภาพแบบรวมเป็นหนึ่งเดียวเชื่อมต่อโครงสร้างพื้นฐานการจัดเก็บข้อมูลและ PLM/PDM ที่มีอยู่เข้ากับระบบนิเวศ Omniverse โดยตรงผ่านไลบรารีที่ขับเคลื่อนด้วย API ซึ่งช่วยให้สามารถจัดการข้อมูลแบบกระจายขนาดใหญ่และมีประสิทธิภาพสูง หลีกเลี่ยงการโยกย้ายข้อมูลด้วยตนเองที่มีค่าใช้จ่ายสูงและใช้เวลานานสำหรับการปรับใช้ระดับองค์กร

ไลบรารีเหล่านี้อยู่ในช่วง Early Access บน GitHub และ NGC โดย NVIDIA กำลังรวบรวมข้อเสนอแนะอย่างแข็งขัน และวางแผนที่จะเปิดตัวเวอร์ชันสำหรับใช้งานจริงพร้อม API ที่เสถียรในปลายปีนี้ การทดสอบภายในในสแตกประสิทธิภาพสูง เช่น NVIDIA Isaac Lab และ Omniverse DSX Blueprint ช่วยให้มั่นใจว่าไลบรารีเหล่านี้ตอบสนองความต้องการขององค์กรที่เข้มงวดก่อนที่จะเปิดให้ใช้งานทั่วไป

การจัดระบบแบบ Agentic ด้วย Model Context Protocol (MCP)

เพื่อเพิ่มประโยชน์ใช้สอยของไลบรารีเหล่านี้ให้มากขึ้น โดยเฉพาะอย่างยิ่งในสาขาเอเจนต์ AI ที่กำลังเติบโต Omniverse ได้นำเสนอความสามารถในการจัดระบบแบบ Agentic ผ่านเซิร์ฟเวอร์ Model Context Protocol (MCP) เซิร์ฟเวอร์เหล่านี้ได้รับการออกแบบมาเพื่อให้การจำลองสามารถใช้งานได้จากเอเจนต์ที่ใช้ LLM โดยการอธิบายการดำเนินการ—เช่น การโหลดฉาก USD, การแก้ไข prims หรือการก้าวเดินผ่านการจำลอง—ในรูปแบบ schema ที่เครื่องอ่านได้ ซึ่งช่วยให้เครื่องมือ AI เช่น LLM ขั้นสูง สามารถเรียกใช้ฟังก์ชันการทำงานของ Omniverse ได้อย่างปลอดภัยและมีประสิทธิภาพ

ตัวอย่างเช่น เอเจนต์ Kit USD คือชุดของเซิร์ฟเวอร์ MCP สำหรับ Kit, USD และ OmniUI ซึ่งช่วยให้เอเจนต์สามารถเรียกดู API สร้างโค้ดฉาก และจัดการองค์ประกอบ UI หรือลำดับชั้นของเลเยอร์ตามคำอธิบายข้อความระดับสูง สิ่งนี้ช่วยให้นักพัฒนาสามารถกำหนดพฤติกรรมเอเจนต์ที่ซับซ้อนและมาตรการป้องกันได้ โดยลดความซับซ้อนของการเขียนโค้ด API การจำลองแต่ละครั้งด้วยตนเอง สำหรับการปรับขนาดเวิร์กโฟลว์ขั้นสูงเหล่านี้ นักพัฒนาสามารถใช้ประโยชน์จาก NemoClaw ซึ่งเป็นโครงสร้างพื้นฐานสำหรับชุมชน OpenClaw ที่ปรับใช้เอเจนต์อัตโนมัติที่ปลอดภัยภายในสภาพแวดล้อมแบบแซนด์บ็อกซ์ที่แยกและป้องกันด้วยนโยบาย การพัฒนานี้เปิดทางให้สภาพแวดล้อมการจำลองมีความเป็นอิสระและอัจฉริยะมากขึ้น เร่งการพัฒนาระบบ AI เชิงกายภาพที่ซับซ้อน และสนับสนุน การประเมินเอเจนต์ AI สำหรับการผลิต: คู่มือภาคปฏิบัติสำหรับ Strands Evals ที่ทรงพลัง

การเริ่มต้นใช้งาน Docker สำหรับเซิร์ฟเวอร์ MCP อย่างรวดเร็วช่วยลดความซับซ้อนในการปรับใช้ ทำให้นักพัฒนาสามารถใช้บริการ embedder และ reranker ที่โฮสต์บนคลาวด์ของ NVIDIA ได้โดยไม่ต้องใช้ GPU ภายในเครื่อง เพียงแค่ต้องมีคีย์ API ของ NVIDIA

กรณีศึกษา: การเพิ่มประสิทธิภาพ NVIDIA Isaac Lab ด้วยไลบรารีแบบโมดูลาร์

ประโยชน์ในทางปฏิบัติของแนวทางแบบโมดูลาร์นี้แสดงให้เห็นอย่างชัดเจนจากการวิวัฒนาการทางวิศวกรรมที่กำลังดำเนินอยู่ของ NVIDIA Isaac Lab ในฐานะเฟรมเวิร์กการจำลองหุ่นยนต์ประสิทธิภาพสูงที่มีความสำคัญต่อ การเรียนรู้แบบเสริมแรง (Reinforcement Learning) (RL) Isaac Lab ต้องการความสามารถในการปรับขนาดที่สูงมากและการควบคุมที่เป็นไปตามกฎเกณฑ์

ด้วย Isaac Lab 3.0 Beta, NVIDIA ได้เปลี่ยนเลเยอร์พื้นฐานจากเฟรมเวิร์ก Kit แบบโมโนลิธิกแบบดั้งเดิมไปเป็นสถาปัตยกรรมแบบโมดูลาร์ที่มีแบ็กเอนด์หลากหลายได้อย่างประสบความสำเร็จ สิ่งนี้ช่วยให้นักพัฒนาสามารถเลือกระหว่าง 'ovphysx'—ไลบรารีแบบสแตนด์อโลนที่ห่อหุ้ม PhysX SDK—หรือแบ็กเอนด์ Newton แบบไร้ Kit ที่ขับเคลื่อนโดย MuJoCo-Warp ขึ้นอยู่กับความต้องการการจำลองที่เฉพาะเจาะจงของพวกเขา ในทำนองเดียวกัน ด้านการเรนเดอร์ตอนนี้มีระบบปลั๊กอินที่รองรับ OVRTX, Isaac RTX, Newton Warp และโปรแกรมแสดงภาพน้ำหนักเบาเช่น Rerun และ Viser ความยืดหยุ่นนี้ช่วยให้ Isaac Lab สามารถตอบสนองความต้องการที่ท้าทายของนักวิจัยและวิศวกรหุ่นยนต์ โดยนำเสนอการควบคุมการประมวลผลที่ชัดเจน การจำลองที่เป็นไปตามกฎเกณฑ์ และความสามารถทางฟิสิกส์แบบไร้ส่วนหัว (headless) ที่มีความหนาแน่นสูง ซึ่งมีความสำคัญต่อการพัฒนา AI ที่ล้ำสมัย ระดับการควบคุมนี้จำเป็นสำหรับการสร้าง การเร่งการผลิตโทเค็นในโรงงาน AI โดยใช้บริการแบบรวมศูนย์และ AI แบบเรียลไทม์ ที่แข็งแกร่ง

อนาคตของการผสานรวม AI เชิงกายภาพ

การเปิดตัวไลบรารี NVIDIA Omniverse ถือเป็นช่วงเวลาสำคัญสำหรับองค์กรอุตสาหกรรมและหุ่นยนต์ ด้วยการนำเสนอเส้นทางที่มีประสิทธิภาพสูงและละเอียดเพื่อผสานรวมความสามารถของ AI เชิงกายภาพ NVIDIA กำลังส่งเสริมให้บริษัทต่างๆ เร่งการเดินทางสู่การเปลี่ยนแปลงทางดิจิทัล ผู้นำอุตสาหกรรมเช่น ABB Robotics, PTC, Siemens และ Synopsys กำลังนำร่องใช้ไลบรารีเหล่านี้ โดยผสานรวมการจำลองขั้นสูงและการสร้างดิจิทัลทวินเข้ากับระบบ PLM/PDM และ CI/CD ที่มีอยู่ การนำไปใช้อย่างแพร่หลายนี้บ่งชี้ถึงแนวโน้มที่ชัดเจนไปสู่ขั้นตอนการพัฒนาที่ยืดหยุ่น ปรับขนาดได้ และชาญฉลาดมากขึ้น ซึ่ง AI เชิงกายภาพไม่ใช่เพียงแค่ความปรารถนา แต่เป็นความจริงที่สามารถเข้าถึงและผสานรวมได้ เมื่อไลบรารีเหล่านี้เข้าสู่การใช้งานทั่วไป พวกมันสัญญาว่าจะปลดล็อกระดับนวัตกรรมที่ไม่เคยมีมาก่อนในด้านการออกแบบ วิศวกรรม และการผลิต

คำถามที่พบบ่อย

What are NVIDIA Omniverse libraries and what problem do they solve for developers?
NVIDIA Omniverse libraries represent a new, modular architecture that exposes core Omniverse components like RTX rendering (ovrtx), PhysX-based simulation (ovphysx), and data storage pipelines (ovstorage) as standalone C APIs with C++ and Python bindings. This approach allows developers to integrate specific, high-fidelity physical AI capabilities directly into their existing industrial and robotics software stacks without the need to adopt the entire Omniverse platform. This solves the challenge of monolithic runtimes, enabling better scalability, headless deployment, and seamless integration with existing CI/CD systems and application frameworks, significantly reducing the need for extensive architectural rewrites.
How do 'ovrtx', 'ovphysx', and 'ovstorage' enhance existing applications with physical AI capabilities?
The trio of 'ovrtx', 'ovphysx', and 'ovstorage' offers distinct yet complementary functionalities for physical AI integration. 'ovrtx' provides high-fidelity, real-time path-traced rendering and sensor simulation, crucial for multimodal robotics perception and synthetic data generation. 'ovphysx' delivers high-speed, USD-native physics simulation, essential for robotics training and real-time control loops. 'ovstorage' establishes unified physical AI data pipelines, allowing seamless connection of existing PLM/PDM infrastructure to Omniverse, facilitating large-scale distributed data management and avoiding costly manual data migrations. Together, these libraries enable granular, performant integration of advanced simulation and data management.
What is the Model Context Protocol (MCP) and how does it facilitate agentic orchestration within Omniverse?
The Model Context Protocol (MCP) is a crucial mechanism within Omniverse that enables LLM-based agents to interact with and orchestrate physical AI simulations. MCP servers describe operations (e.g., loading USD scenes, editing prims, stepping simulation) in a machine-readable schema. This allows intelligent agents, powered by large language models, to browse available APIs, generate scene code, and manipulate simulation elements based on high-level descriptions. By handling the low-level remote procedure calls (RPCs) to Omniverse, MCP empowers developers to focus on defining sophisticated agent behaviors and guardrails, significantly scaling and automating complex simulation workflows for physical AI.
How has NVIDIA Isaac Lab benefited from the transition to a modular, library-based architecture?
NVIDIA Isaac Lab, a high-performance robotics simulation framework for reinforcement learning, has significantly benefited from transitioning to a modular architecture powered by ovphysx and ovrtx in its 3.0 Beta release. This shift enables explicit execution control, deterministic simulation, and the ability to run high-density, headless physics without reliance on UI dependencies. Developers now have the flexibility to choose between 'ovphysx' or a Kit-less Newton backend based on their simulation needs and can leverage a pluggable renderer system that supports OVRTX, Isaac RTX, and other visualizers. This modularity ensures Isaac Lab meets the extreme scalability and deterministic control requirements for advanced robotics training.
Which major industrial companies are currently piloting NVIDIA Omniverse libraries and for what purposes?
Leading industrial companies such as ABB Robotics, PTC, Siemens, and Synopsys are currently piloting NVIDIA Omniverse libraries. These companies are leveraging the modular architecture to integrate high-fidelity simulation, create advanced digital twins, and enable scalable physical AI capabilities directly within their existing design, engineering, and manufacturing workflows. This allows them to validate robot designs, optimize industrial systems, and enhance product lifecycle management (PLM/PDM) and continuous integration/continuous deployment (CI/CD) systems, all before physical prototypes are ever built, signaling a significant shift towards AI-driven industrial transformation.
What are the immediate benefits of using Omniverse libraries compared to the full Omniverse container stack for existing applications?
The immediate benefits of using Omniverse libraries over the full container stack for existing applications include significantly reduced architectural friction and faster integration. Developers can selectively embed specific Omniverse capabilities—like advanced rendering or physics simulation—into their current software without undergoing major overhauls. This approach allows for headless deployment, better scalability of simulations, and direct tensorized data exchange. It addresses previous bottlenecks such as framework lock-in, UI dependencies, and architectural rigidity, offering a streamlined path to leveraging NVIDIA's powerful physical AI technologies within established industrial and robotics ecosystems.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์