Code Velocity
Fejlesztői Eszközök

Omniverse Könyvtárak: Fizikai AI Integráció Meglévő Alkalmazásokhoz

·7 perc olvasás·NVIDIA·Eredeti forrás
Megosztás
Az NVIDIA Omniverse moduláris könyvtárai fizikai AI képességeket integrálnak a meglévő alkalmazásokba valós idejű digitális ikerpéldány szimulációhoz.

NVIDIA Omniverse Könyvtárak Bemutatása: A Fizikai AI Integráció Megerősítése

A GTC 2026 rendezvényen az NVIDIA bejelentette az Omniverse platformjának jelentős fejlődését, bemutatva egy moduláris, könyvtáralapú architektúrát, amelyet arra terveztek, hogy zökkenőmentesen integrálja a fejlett fizikai AI képességeket a meglévő alkalmazásokba. Ez a paradigmaváltás egy kritikus igényt elégít ki az ipari és robotikai fejlesztésben, ahol a monolitikus futtatókörnyezetek gyakran akadályozzák a skálázhatóságot, a fej nélküli (headless) telepítést és az integrációt a kialakult CI/CD rendszerekkel. Azáltal, hogy az Omniverse alapvető komponenseit – RTX renderelés, PhysX-alapú szimuláció és adattárolási pipeline-ok – önálló C API-kként teszi elérhetővé C++ és Python kötésekkel, az NVIDIA lehetővé teszi a fejlesztők számára, hogy erőteljes valós idejű digitális ikerpéldány és fizikai AI funkciókat ágyazzanak be anélkül, hogy teljes architekturális átalakításra lenne szükség. Ez a modularitás demokratizálja a nagy hűségű szimulációhoz való hozzáférést, a fizikai AI-t elérhető valósággá téve a vállalatok szélesebb köre számára.

A fizikai AI, amelyet olyan AI rendszereként definiálunk, amelyek fizikailag megalapozott szimulált környezetekben érzékelnek, érvelnek és cselekednek, gyorsan átalakítja az iparágak komplex rendszereinek tervezési és validálási módját. A robotkar mozgásától az egész gyári elrendezésig, az AI irányelvek képzése és validálása digitális ikerpéldány környezetben drasztikusan csökkenti a költségeket és felgyorsítja a fejlesztési ciklusokat. Az új Omniverse könyvtárak, beleértve az 'ovrtx', 'ovphysx' és 'ovstorage' elemeket, ezen átalakulás sarokköveivé válnak, lehetővé téve a vállalkozások számára, hogy saját szoftverüket az NVIDIA élvonalbeli szimulációs technológiájával gazdagítsák.

Moduláris Architektúra a Zökkenőmentes Fizikai AI Integrációhoz

A könyvtár-első architektúra bevezetése alapvetően megváltoztatja, hogyan lépnek interakcióba a fejlesztők az NVIDIA Omniverse ökoszisztémával. Ahelyett, hogy átfogó alkalmazáskeretrendszert vennének át, a csapatok mostantól szelektíven hívhatják az Omniverse renderelési, fizikai és tárolási API-kat közvetlenül a saját folyamataikból és szolgáltatásaikból. Ez a megközelítés kiküszöböli a keretrendszerhez való kötöttséggel, a felhasználói felület függőségeivel és az architekturális merevséggel járó kihívásokat, amelyek gyakran kísérik a nagyszabású szoftverbevezetéseket.

Ez a moduláris tervezés különösen előnyös az established szoftverrendszerrel rendelkező fejlesztők számára, lehetővé téve számukra, hogy az Omniverse erőteljes képességeit pusztító architekturális átírások nélkül kihasználják. A könyvtárakat fej nélküli (headless) telepítésre tervezték, biztosítva az optimális teljesítményt és skálázhatóságot az igényes ipari és robotikai alkalmazásokhoz. Az NVIDIA ezen stratégiai lépése hangsúlyozza a rugalmasság és a fejlesztő-központú megoldások iránti elkötelezettséget, az Omniverse-t az AI jövőjének adaptálható eszközkészletévé pozicionálva.

Az Omniverse Alapvető Könyvtárai: ovrtx, ovphysx és ovstorage

Az újonnan bejelentett könyvtárak különálló, de egymással összefüggő képességeket biztosítanak, mindegyiket arra tervezték, hogy specifikus integrációs kihívásokat oldjanak meg az ipari szoftverfejlesztésben. Kihasználják a meglévő Omniverse komponenseket, mint az OpenUSD a jelenetleírásokhoz és a SimReady eszközöket a kiváló minőségű szimulációs környezetekhez, biztosítva a koherens és erőteljes fejlesztési élményt.

KönyvtárFőbb KépességekMérnöki Hatás
ovrtxNagy hűségű, nagy teljesítményű valós idejű ray tracing és szenzorszimulációIntegrálja az élvonalbeli RTX renderelést közvetlenül a meglévő alkalmazásokba, lehetővé téve a multimodális robotikai érzékelést, a fejlett szintetikus adatgenerálást és rendkívül valósághű vizuális visszajelzést a digitális ikerpéldányok és szimulált környezetek számára.
ovphysxNagy sebességű, USD-natív fizikai szimulációKönnyű, hardveresen gyorsított fizikai szimulációt ad az alkalmazásokhoz, megkönnyítve a nagy sebességű adatcserét a robotika képzéséhez, a valós idejű vezérlőhurok integrációját és a pontos fizikai interakciókat komplex ipari forgatókönyvekben.
ovstorageEgységes fizikai AI adatfolyamokAPI-vezérelt könyvtáron keresztül közvetlenül csatlakoztatja a meglévő tárolási és PLM/PDM infrastruktúrát az Omniverse ökoszisztémához. Ez nagyszabású elosztott adatkezelést és nagy teljesítményt tesz lehetővé, kulcsfontosságúan elkerülve a költséges és időigényes manuális adatmigrációkat vállalati szintű telepítések esetén.

Ezek a könyvtárak jelenleg korai hozzáféréssel elérhetők a GitHubon és az NGC-n, az NVIDIA pedig aktívan gyűjti a visszajelzéseket, és még idén tervez egy API stabilitással rendelkező termékkiadást. Az olyan nagy teljesítményű stackekben végzett belső tesztelés, mint az NVIDIA Isaac Lab és az Omniverse DSX Blueprint, biztosítja, hogy megfeleljenek a szigorú vállalati igényeknek, mielőtt általánosan elérhetővé válnának.

Ügynökalapú Orchestráció a Model Context Protocol (MCP) Segítségével

E könyvtárak hasznosságának további fokozására, különösen az AI-ügynökök virágzó területén, az Omniverse ügynökalapú orchestrációs képességeket vezet be a Model Context Protocol (MCP) szervereken keresztül. Ezeket a szervereket úgy tervezték, hogy az LLM-alapú ügynökök számára használhatóvá tegyék a szimulációt azáltal, hogy a műveleteket – például USD jelenetek betöltését, prim-ek szerkesztését vagy szimulációk léptetését – géppel olvasható sémában írják le. Ez lehetővé teszi az AI eszközök, mint a fejlett LLM-ek számára, hogy biztonságosan és hatékonyan hívják meg az Omniverse funkcióit.

A Kit USD ügynökök például MCP szerverek gyűjteménye a Kit, USD és OmniUI számára, amelyek lehetővé teszik az ügynökök számára, hogy böngésszék az API-kat, jelenetkódot generáljanak, és magas szintű szöveges leírások alapján manipulálják a felhasználói felület elemeit vagy réteghierarchiákat. Ez felhatalmazza a fejlesztőket, hogy kifinomult ügynökviselkedéseket és korlátokat definiáljanak, leegyszerűsítve az összes szimulációs API hívás kézi beállításának bonyolultságát. Ezen fejlett munkafolyamatok skálázásához a fejlesztők kihasználhatják a NemoClaw infrastruktúra stack-et az OpenClaw közösség számára, amely biztonságos, autonóm ügynököket telepít izolált, házirenddel védett sandboxokba. Ez a fejlesztés megnyitja az utat az egyre autonómabb és intelligensebb szimulációs környezetek felé, felgyorsítva a komplex fizikai AI rendszerek fejlesztését, és támogatva a hatékony mesterséges intelligencia ügynökök értékelése gyártási környezetben – gyakorlati útmutató a Strands értékelésekhez-et.

A Dockerrel való gyors kezdés az MCP szerverekhez leegyszerűsíti a telepítést, lehetővé téve a fejlesztők számára az NVIDIA felhőalapú embedder és reranker szolgáltatásainak használatát helyi GPU-k nélkül, mindössze egy NVIDIA API kulcsra van szükség.

Esettanulmány: Az NVIDIA Isaac Lab Optimalizálása Moduláris Könyvtárakkal

Ennek a moduláris megközelítésnek a gyakorlati előnyeit élénken demonstrálja az NVIDIA Isaac Lab folyamatos mérnöki fejlődése. Mint egy nagyteljesítményű robotikai szimulációs keretrendszer, amely kritikus fontosságú a megerősítéses tanuláshoz (RL), az Isaac Lab extrém skálázhatóságot és determinisztikus vezérlést igényel.

Az Isaac Lab 3.0 Beta-val az NVIDIA sikeresen áttért alaprétegével a hagyományos monolitikus Kit keretrendszerről egy több háttérrel rendelkező moduláris architektúrára. Ez lehetővé teszi a fejlesztők számára, hogy az 'ovphysx' – a PhysX SDK-t beburkoló önálló könyvtár – vagy egy Kit nélküli Newton háttér között válasszanak, amelyet a MuJoCo-Warp hajt, specifikus szimulációs igényeik alapján. Hasonlóképpen, a renderelési oldal most egy beépíthető rendszert kínál, amely támogatja az OVRTX-et, az Isaac RTX-et, a Newton Warp-ot és könnyű vizualizálókat, mint a Rerun és a Viser. Ez a rugalmasság biztosítja, hogy az Isaac Lab megfeleljen a robotikai kutatók és mérnökök igényes szükségleteinek, explicit végrehajtás-vezérlést, determinisztikus szimulációt és nagy sűrűségű, fej nélküli fizikai képességeket biztosítva, amelyek kulcsfontosságúak az élvonalbeli AI fejlesztéséhez. Ez a szintű vezérlés elengedhetetlen a robusztus tokengyártás felgyorsítása AI gyárakban egységes szolgáltatásokkal és valós idejű AI-val létrehozásához.

A Fizikai AI Integráció Jövője

Az NVIDIA Omniverse könyvtárak kiadása fordulópontot jelent az ipari és robotikai vállalatok számára. Azáltal, hogy részletes, nagy teljesítményű utat kínál a fizikai AI képességek integrálásához, az NVIDIA felhatalmazza a vállalatokat digitális transzformációs útjuk felgyorsítására. Az iparág vezetői, mint az ABB Robotics, a PTC, a Siemens és a Synopsys, már tesztelik ezeket a könyvtárakat, integrálva a fejlett szimulációt és digitális ikerpéldányok létrehozását meglévő PLM/PDM és CI/CD rendszereikbe. Ez a széles körű elterjedés egyértelmű trendet jelez a rugalmasabb, skálázhatóbb és intelligensebb fejlesztési munkafolyamatok felé, ahol a fizikai AI nem csupán aspiráció, hanem hozzáférhető, integrált valóság. Ahogy ezek a könyvtárak közelednek az általános elérhetőséghez, példátlan innovációs szinteket ígérnek a tervezés, mérnöki munka és gyártás területén.

Gyakran ismételt kérdések

What are NVIDIA Omniverse libraries and what problem do they solve for developers?
NVIDIA Omniverse libraries represent a new, modular architecture that exposes core Omniverse components like RTX rendering (ovrtx), PhysX-based simulation (ovphysx), and data storage pipelines (ovstorage) as standalone C APIs with C++ and Python bindings. This approach allows developers to integrate specific, high-fidelity physical AI capabilities directly into their existing industrial and robotics software stacks without the need to adopt the entire Omniverse platform. This solves the challenge of monolithic runtimes, enabling better scalability, headless deployment, and seamless integration with existing CI/CD systems and application frameworks, significantly reducing the need for extensive architectural rewrites.
How do 'ovrtx', 'ovphysx', and 'ovstorage' enhance existing applications with physical AI capabilities?
The trio of 'ovrtx', 'ovphysx', and 'ovstorage' offers distinct yet complementary functionalities for physical AI integration. 'ovrtx' provides high-fidelity, real-time path-traced rendering and sensor simulation, crucial for multimodal robotics perception and synthetic data generation. 'ovphysx' delivers high-speed, USD-native physics simulation, essential for robotics training and real-time control loops. 'ovstorage' establishes unified physical AI data pipelines, allowing seamless connection of existing PLM/PDM infrastructure to Omniverse, facilitating large-scale distributed data management and avoiding costly manual data migrations. Together, these libraries enable granular, performant integration of advanced simulation and data management.
What is the Model Context Protocol (MCP) and how does it facilitate agentic orchestration within Omniverse?
The Model Context Protocol (MCP) is a crucial mechanism within Omniverse that enables LLM-based agents to interact with and orchestrate physical AI simulations. MCP servers describe operations (e.g., loading USD scenes, editing prims, stepping simulation) in a machine-readable schema. This allows intelligent agents, powered by large language models, to browse available APIs, generate scene code, and manipulate simulation elements based on high-level descriptions. By handling the low-level remote procedure calls (RPCs) to Omniverse, MCP empowers developers to focus on defining sophisticated agent behaviors and guardrails, significantly scaling and automating complex simulation workflows for physical AI.
How has NVIDIA Isaac Lab benefited from the transition to a modular, library-based architecture?
NVIDIA Isaac Lab, a high-performance robotics simulation framework for reinforcement learning, has significantly benefited from transitioning to a modular architecture powered by ovphysx and ovrtx in its 3.0 Beta release. This shift enables explicit execution control, deterministic simulation, and the ability to run high-density, headless physics without reliance on UI dependencies. Developers now have the flexibility to choose between 'ovphysx' or a Kit-less Newton backend based on their simulation needs and can leverage a pluggable renderer system that supports OVRTX, Isaac RTX, and other visualizers. This modularity ensures Isaac Lab meets the extreme scalability and deterministic control requirements for advanced robotics training.
Which major industrial companies are currently piloting NVIDIA Omniverse libraries and for what purposes?
Leading industrial companies such as ABB Robotics, PTC, Siemens, and Synopsys are currently piloting NVIDIA Omniverse libraries. These companies are leveraging the modular architecture to integrate high-fidelity simulation, create advanced digital twins, and enable scalable physical AI capabilities directly within their existing design, engineering, and manufacturing workflows. This allows them to validate robot designs, optimize industrial systems, and enhance product lifecycle management (PLM/PDM) and continuous integration/continuous deployment (CI/CD) systems, all before physical prototypes are ever built, signaling a significant shift towards AI-driven industrial transformation.
What are the immediate benefits of using Omniverse libraries compared to the full Omniverse container stack for existing applications?
The immediate benefits of using Omniverse libraries over the full container stack for existing applications include significantly reduced architectural friction and faster integration. Developers can selectively embed specific Omniverse capabilities—like advanced rendering or physics simulation—into their current software without undergoing major overhauls. This approach allows for headless deployment, better scalability of simulations, and direct tensorized data exchange. It addresses previous bottlenecks such as framework lock-in, UI dependencies, and architectural rigidity, offering a streamlined path to leveraging NVIDIA's powerful physical AI technologies within established industrial and robotics ecosystems.

Maradjon naprakész

Kapja meg a legfrissebb AI híreket e-mailben.

Megosztás