Code Velocity
Izstrādātāju rīki

Omniverse bibliotēkas: fiziskā AI integrācija esošajās lietotnēs

·7 min lasīšana·NVIDIA·Sākotnējais avots
Dalīties
NVIDIA Omniverse moduļu bibliotēkas integrē fiziskās AI iespējas esošajās lietojumprogrammās reāllaika digitālo dvīņu simulācijai.

NVIDIA Omniverse bibliotēkas atklātas: fiziskās AI integrācijas pilnvarošana

GTC 2026 konferencē NVIDIA paziņoja par nozīmīgu Omniverse platformas attīstību, ieviešot moduļu, uz bibliotēkām balstītu arhitektūru, kas paredzēta, lai nevainojami integrētu progresīvas fiziskās AI iespējas esošajās lietojumprogrammās. Šis paradigmas maiņa risina kritisku vajadzību rūpniecības un robotikas attīstībā, kur monolītās izpildes laiki bieži vien traucē mērogojamību, bezgalvas izvietošanu un integrāciju ar izveidotām CI/CD sistēmām. Eksponējot galvenās Omniverse komponentes — RTX renderēšanu, uz PhysX balstītu simulāciju un datu glabāšanas caurules — kā atsevišķas C API ar C++ un Python saitēm, NVIDIA dod izstrādātājiem iespēju iegult jaudīgas reāllaika digitālo dvīņu un fiziskās AI funkcijas, neprasot pilnīgu arhitektūras pārveidi. Šī modularitāte demokratizē piekļuvi augstas precizitātes simulācijai, padarot fizisko AI par sasniedzamu realitāti plašākam uzņēmumu lokam.

Fiziskā AI, kas definēta kā AI sistēmas, kas uztver, spriež un rīkojas fiziski pamatotās simulētās vidēs, strauji maina veidu, kā nozares projektē un apstiprina sarežģītas sistēmas. No robotu rokas kustībām līdz veselām rūpnīcu izkārtojumām, AI politiku apmācība un apstiprināšana digitālā dvīņa vidē drastiski samazina izmaksas un paātrina izstrādes ciklus. Jaunās Omniverse bibliotēkas, tostarp 'ovrtx', 'ovphysx' un 'ovstorage', ir paredzētas, lai kļūtu par šīs transformācijas stūrakmeni, ļaujot uzņēmumiem savā patentētajā programmatūrā integrēt NVIDIA visprogresīvāko simulācijas tehnoloģiju.

Moduļu arhitektūra nevainojamai fiziskās AI integrācijai

Bibliotēku-pirmā arhitektūras ieviešana fundamentāli maina veidu, kā izstrādātāji mijiedarbojas ar NVIDIA Omniverse ekosistēmu. Tā vietā, lai pieņemtu visaptverošu lietojumprogrammu ietvaru, komandas tagad var selektīvi izsaukt Omniverse renderēšanas, fizikas un glabāšanas API tieši no saviem procesiem un pakalpojumiem. Šī pieeja novērš izaicinājumus, kas saistīti ar ietvaru bloķēšanu, UI atkarībām un arhitektūras stingrību, kas bieži vien pavada liela mēroga programmatūras ieviešanu.

Šis moduļu dizains ir īpaši noderīgs izstrādātājiem ar izveidotiem programmatūras blokiem, ļaujot viņiem izmantot Omniverse jaudīgās iespējas bez traucējošām arhitektūras pārrakstīšanām. Bibliotēkas ir izstrādātas bezgalvas izvietošanai, nodrošinot optimālu veiktspēju un mērogojamību prasīgām rūpniecības un robotikas lietojumprogrammām. Šis NVIDIA stratēģiskais solis uzsver apņemšanos nodrošināt elastību un uz izstrādātājiem orientētus risinājumus, pozicionējot Omniverse kā pielāgojamu rīku kopumu AI nākotnei.

Galvenās Omniverse bibliotēkas: ovrtx, ovphysx un ovstorage

Nesen paziņotās bibliotēkas nodrošina atšķirīgas, bet savstarpēji saistītas iespējas, katra no tām ir paredzēta specifisku integrācijas problēmu risināšanai rūpnieciskās programmatūras izstrādē. Tās izmanto esošās Omniverse komponentes, piemēram, OpenUSD ainas aprakstam un SimReady aktīvus augstas kvalitātes simulācijas vidēm, nodrošinot saliedētu un jaudīgu izstrādes pieredzi.

BibliotēkaGalvenās iespējasInženierijas ietekme
ovrtxAugstas precizitātes, augstas veiktspējas reāllaika ceļa izsekošana un sensoru simulācijaIntegrē modernāko RTX renderēšanu tieši esošajās lietojumprogrammās, nodrošinot multimodālu robotikas uztveri, progresīvu sintētisko datu ģenerēšanu un ļoti reālistisku vizuālo atgriezenisko saiti digitālajiem dvīņiem un simulētām vidēm.
ovphysxĀtrgaitas, USD-vietējā fizikas simulācijaPievieno vieglu, ar aparatūru paātrinātu fizikas simulāciju lietojumprogrammām, atvieglojot ātrgaitas datu apmaiņu robotikas apmācībai, reāllaika vadības cilpas integrāciju un precīzas fiziskās mijiedarbības sarežģītos rūpnieciskos scenārijos.
ovstorageVienotas fiziskās AI datu caurulesSavieno esošās krātuves un PLM/PDM infrastruktūru tieši ar Omniverse ekosistēmu, izmantojot uz API balstītu bibliotēku. Tas nodrošina liela mēroga izplatītu datu pārvaldību un augstu veiktspēju, kritiski izvairoties no dārgām un laikietilpīgām manuālām datu migrācijām uzņēmuma līmeņa izvietojumiem.

Šīs bibliotēkas pašlaik ir pieejamas agrīnā piekļuvē GitHub un NGC, un NVIDIA aktīvi vāc atsauksmes un plāno ražošanas izlaidi ar API stabilitāti vēlāk šogad. Iekšējā testēšana augstas veiktspējas blokos, piemēram, NVIDIA Isaac Lab un Omniverse DSX Blueprint, nodrošina, ka tās atbilst stingrām uzņēmuma prasībām pirms vispārējās pieejamības.

Aģentu orķestrēšana ar modeļa konteksta protokolu (MCP)

Lai vēl vairāk uzlabotu šo bibliotēku lietderību, īpaši AI aģentu jaunajā jomā, Omniverse ievieš aģentu orķestrēšanas iespējas, izmantojot Modeļa konteksta protokola (MCP) serverus. Šie serveri ir paredzēti, lai simulāciju padarītu lietojamu no LLM balstītiem aģentiem, aprakstot operācijas, piemēram, USD ainu ielādi, primu rediģēšanu vai simulāciju soļu veikšanu, mašīnlasāmā shēmā. Tas ļauj AI rīkiem, piemēram, progresīviem LLM, droši un efektīvi izsaukt Omniverse funkcijas.

Kit USD aģenti, piemēram, ir MCP serveru kolekcija Kit, USD un OmniUI, kas ļauj aģentiem pārlūkot API, ģenerēt ainas kodu un manipulēt ar UI elementiem vai slāņu hierarhijām, pamatojoties uz augsta līmeņa tekstuāliem aprakstiem. Tas dod izstrādātājiem iespēju definēt sarežģītas aģentu uzvedības un aizsargmargas, atvieglojot katras simulācijas API izsaukuma sarežģītību. Lai mērogotu šīs progresīvās darbplūsmas, izstrādātāji var izmantot NemoClaw, infrastruktūras bloku OpenClaw kopienai, kas izvieto drošus, autonomus aģentus izolētās, ar politiku aizsargātās smilškastēs. Šī attīstība paver ceļu arvien autonomākām un inteliģentākām simulācijas vidēm, paātrinot sarežģītu fizisko AI sistēmu izstrādi un atbalstot jaudīgu evaluating-ai-agents-for-production-a-practical-guide-to-strands-evals.

Ātra sākšana ar Docker MCP serveriem vienkāršo izvietošanu, ļaujot izstrādātājiem izmantot NVIDIA mākoņos mitinātos iegulšanas un reranker pakalpojumus bez vietējiem GPU, pieprasot tikai NVIDIA API atslēgu.

Gadījumu izpēte: NVIDIA Isaac Lab optimizēšana ar moduļu bibliotēkām

Šīs moduļu pieejas praktiskās priekšrocības spilgti demonstrē notiekošā NVIDIA Isaac Lab inženiertehniskā evolūcija. Kā augstas veiktspējas robotikas simulācijas ietvars, kas ir kritisks pastiprinājuma mācībai (RL), Isaac Lab prasa ārkārtīgu mērogojamību un deterministisku kontroli.

Ar Isaac Lab 3.0 Beta, NVIDIA ir veiksmīgi pārgājusi no tradicionālā monolītā Kit ietvara uz daudzfunkciju moduļu arhitektūru. Tas ļauj izstrādātājiem izvēlēties starp 'ovphysx' — atsevišķu bibliotēku, kas apvieno PhysX SDK — vai Newton aizmugursistēmu bez Kit, ko nodrošina MuJoCo-Warp, atkarībā no viņu specifiskajām simulācijas prasībām. Līdzīgi renderēšanas pusei tagad ir pieslēdzama sistēma, kas atbalsta OVRTX, Isaac RTX, Newton Warp un vieglus vizualizatorus, piemēram, Rerun un Viser. Šī elastība nodrošina, ka Isaac Lab var apmierināt robotikas pētnieku un inženieru prasīgās vajadzības, nodrošinot precīzu izpildes kontroli, deterministisku simulāciju un augsta blīvuma, bezgalvas fizikas iespējas, kas ir būtiskas progresīvai AI izstrādei. Šis kontroles līmenis ir būtisks, lai radītu robustu accelerate-token-production-in-ai-factories-using-unified-services-and-real-time-ai.

Fiziskās AI integrācijas nākotne

NVIDIA Omniverse bibliotēku izlaišana iezīmē pagrieziena punktu rūpniecības un robotikas uzņēmumiem. Piedāvājot granulētu, augstas veiktspējas ceļu fiziskās AI iespēju integrēšanai, NVIDIA dod uzņēmumiem iespēju paātrināt digitālās transformācijas ceļojumu. Nozares līderi, piemēram, ABB Robotics, PTC, Siemens un Synopsys, jau izmēģina šīs bibliotēkas, integrējot progresīvu simulāciju un digitālo dvīņu izveidi savās esošajās PLM/PDM un CI/CD sistēmās. Šī plašā pieņemšana liecina par skaidru tendenci uz elastīgākām, mērogojamākām un inteliģentākām izstrādes darbplūsmām, kur fiziskā AI nav tikai centieni, bet gan pieejama, integrēta realitāte. Tuvojoties šo bibliotēku vispārējai pieejamībai, tās sola atklāt nepieredzētus inovāciju līmeņus projektēšanā, inženierijā un ražošanā.

Bieži uzdotie jautājumi

What are NVIDIA Omniverse libraries and what problem do they solve for developers?
NVIDIA Omniverse libraries represent a new, modular architecture that exposes core Omniverse components like RTX rendering (ovrtx), PhysX-based simulation (ovphysx), and data storage pipelines (ovstorage) as standalone C APIs with C++ and Python bindings. This approach allows developers to integrate specific, high-fidelity physical AI capabilities directly into their existing industrial and robotics software stacks without the need to adopt the entire Omniverse platform. This solves the challenge of monolithic runtimes, enabling better scalability, headless deployment, and seamless integration with existing CI/CD systems and application frameworks, significantly reducing the need for extensive architectural rewrites.
How do 'ovrtx', 'ovphysx', and 'ovstorage' enhance existing applications with physical AI capabilities?
The trio of 'ovrtx', 'ovphysx', and 'ovstorage' offers distinct yet complementary functionalities for physical AI integration. 'ovrtx' provides high-fidelity, real-time path-traced rendering and sensor simulation, crucial for multimodal robotics perception and synthetic data generation. 'ovphysx' delivers high-speed, USD-native physics simulation, essential for robotics training and real-time control loops. 'ovstorage' establishes unified physical AI data pipelines, allowing seamless connection of existing PLM/PDM infrastructure to Omniverse, facilitating large-scale distributed data management and avoiding costly manual data migrations. Together, these libraries enable granular, performant integration of advanced simulation and data management.
What is the Model Context Protocol (MCP) and how does it facilitate agentic orchestration within Omniverse?
The Model Context Protocol (MCP) is a crucial mechanism within Omniverse that enables LLM-based agents to interact with and orchestrate physical AI simulations. MCP servers describe operations (e.g., loading USD scenes, editing prims, stepping simulation) in a machine-readable schema. This allows intelligent agents, powered by large language models, to browse available APIs, generate scene code, and manipulate simulation elements based on high-level descriptions. By handling the low-level remote procedure calls (RPCs) to Omniverse, MCP empowers developers to focus on defining sophisticated agent behaviors and guardrails, significantly scaling and automating complex simulation workflows for physical AI.
How has NVIDIA Isaac Lab benefited from the transition to a modular, library-based architecture?
NVIDIA Isaac Lab, a high-performance robotics simulation framework for reinforcement learning, has significantly benefited from transitioning to a modular architecture powered by ovphysx and ovrtx in its 3.0 Beta release. This shift enables explicit execution control, deterministic simulation, and the ability to run high-density, headless physics without reliance on UI dependencies. Developers now have the flexibility to choose between 'ovphysx' or a Kit-less Newton backend based on their simulation needs and can leverage a pluggable renderer system that supports OVRTX, Isaac RTX, and other visualizers. This modularity ensures Isaac Lab meets the extreme scalability and deterministic control requirements for advanced robotics training.
Which major industrial companies are currently piloting NVIDIA Omniverse libraries and for what purposes?
Leading industrial companies such as ABB Robotics, PTC, Siemens, and Synopsys are currently piloting NVIDIA Omniverse libraries. These companies are leveraging the modular architecture to integrate high-fidelity simulation, create advanced digital twins, and enable scalable physical AI capabilities directly within their existing design, engineering, and manufacturing workflows. This allows them to validate robot designs, optimize industrial systems, and enhance product lifecycle management (PLM/PDM) and continuous integration/continuous deployment (CI/CD) systems, all before physical prototypes are ever built, signaling a significant shift towards AI-driven industrial transformation.
What are the immediate benefits of using Omniverse libraries compared to the full Omniverse container stack for existing applications?
The immediate benefits of using Omniverse libraries over the full container stack for existing applications include significantly reduced architectural friction and faster integration. Developers can selectively embed specific Omniverse capabilities—like advanced rendering or physics simulation—into their current software without undergoing major overhauls. This approach allows for headless deployment, better scalability of simulations, and direct tensorized data exchange. It addresses previous bottlenecks such as framework lock-in, UI dependencies, and architectural rigidity, offering a streamlined path to leveraging NVIDIA's powerful physical AI technologies within established industrial and robotics ecosystems.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties