Code Velocity
DI modeliai

Gemma 4: Dirbtinio intelekto mastelio didinimas nuo duomenų centro iki pakraščio su NVIDIA

·5 min skaitymo·NVIDIA·Originalus šaltinis
Dalintis
NVIDIA Gemma 4 modeliai, leidžiantys DI veikti pakraščio įrenginiuose ir duomenų centruose

title: "Gemma 4: Dirbtinio intelekto mastelio didinimas nuo duomenų centro iki pakraščio su NVIDIA" slug: "bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4" date: "2026-04-05" lang: "lt" source: "https://developer.nvidia.com/blog/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4/" category: "DI modeliai" keywords:

  • Gemma 4
  • NVIDIA
  • Pakraščio DI
  • Įrenginio DI
  • Daugiarūšis DI
  • DML
  • DI diegimas
  • Blackwell
  • Jetson
  • RTX
  • vLLM
  • NeMo meta_description: "Atraskite Gemma 4 – daugiarūšius ir daugiakalbius NVIDIA DI modelius, sukurtus sklandžiam diegimui nuo Blackwell duomenų centrų iki Jetson pakraščio įrenginių, užtikrinančius saugias, mažos delsos programas." image: "/images/articles/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4.png" image_alt: "NVIDIA Gemma 4 modeliai, leidžiantys DI veikti pakraščio įrenginiuose ir duomenų centruose" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Kas yra Gemma 4 ir kokios yra pagrindinės jo naujovės DI diegimui?" answer: "Gemma 4 yra naujausios kartos daugiarūšiai ir daugiakalbiai Google DI modeliai, sukurti plačiam diegimui visame NVIDIA aparatinės įrangos spektre, nuo galingų Blackwell duomenų centrų iki kompaktiškų Jetson pakraščio įrenginių. Pagrindiniai jo patobulinimai apima žymiai pagerintą efektyvumą ir tikslumą, todėl jis tinka įvairioms užduotims, tokioms kaip sudėtingų problemų sprendimas, kodo generavimas ir agentų įrankių naudojimas. Šie modeliai pasižymi turtingomis daugiarūšėmis galimybėmis, palaikančiomis teksto ir vaizdų persidengimą, ir yra išmokyti daugiau nei 140 kalbų. Šis universalumas ir mastelio keitimas atitinka augantį vietinių, saugių, ekonomiškų ir mažos delsos DI programų poreikį, perkeliant intelektą arčiau duomenų ir veiksmų šaltinio."
  • question: "Kaip Gemma 4 palengvina DI diegimą įrenginiuose ir pakraščiuose, ir kurios NVIDIA platformos jį palaiko?" answer: "Gemma 4 yra specialiai optimizuota, kad būtų galima patikimai diegti DI įrenginiuose ir pakraščiuose, o tai yra labai svarbu programoms, kurioms reikalinga maža delsa, didesnis privatumas ir sumažintos veiklos sąnaudos. Išsamus NVIDIA klientų ir pakraščio sistemų rinkinys, įskaitant RTX gpus, DGX Spark ir Jetson įrenginius, suteikia reikiamą lankstumą ir našumą. Pavyzdžiui, Jetson platformos palaiko Gemma 4 E2B ir E4B variantus daugiarūšiam išvadų darymui energijos atžvilgiu ribotose įterptosiose sistemose, o RTX gpus siūlo optimizuotą našumą vietinėms išvadoms staliniuose kompiuteriuose. Bendradarbiavimas su vLLM, Ollama, llama.cpp ir Unsloth užtikrina efektyvų vietinį diegimą visose šiose įvairiose platformose, suteikiant kūrėjams galimybę integruoti pažangų DI tiesiogiai į savo programas ir įrenginius."
  • question: "Kokį vaidmenį NVIDIA DGX Spark ir NIM vaidina kuriant ir diegiant Gemma 4 modelius įmonėms?" answer: "NVIDIA DGX Spark suteikia galingą platformą DI kūrėjams ir entuziastams kurti ir prototipuoti saugius, agentinius DI darbo procesus su Gemma 4. Su GB10 Grace Blackwell Superchips ir 128 GB vientisos atminties, DGX Spark leidžia efektyviai paleisti net ir didžiausius Gemma 4 modelius su BF16 svoriais, išlaikant privatų ir saugų vykdymą įrenginyje. vLLM išvadų variklis DGX Spark toliau optimizuoja DML aptarnavimą dideliam pralaidumui. Gamybos diegimui NVIDIA NIM siūlo iš anksto supakuotas ir optimizuotas mikroservisas, suteikiant saugų, savarankiškai talpinamą sprendimą įmonėms su NVIDIA Enterprise License. Talpinamas NIM API taip pat yra prieinamas NVIDIA API kataloge pradiniam prototipų kūrimui."
  • question: "Kaip kūrėjai gali patobulinti Gemma 4 modelius konkretiems domenų duomenims ir kokios priemonės yra prieinamos?" answer: "Kūrėjai gali pritaikyti Gemma 4 modelius su savo unikaliais domenų duomenimis naudodami NVIDIA NeMo sistemą, ypač NeMo Automodel biblioteką. Ši galinga priemonė sujungia vietinio PyTorch naudojimo paprastumą su optimizuotu našumu, leidžiančiu efektyviai patobulinti. Tokios technikos kaip prižiūrimas patobulinimas (SFT) ir atmintį taupantis LoRA (žemo rango adaptacija) gali būti tiesiogiai pritaikytos Gemma 4 modelių kontroliniams taškams, prieinamiems Hugging Face, pašalinant sudėtingų konversijų poreikį. Tai leidžia atlikti 'day-zero' patobulinimą, užtikrinant, kad modeliai būtų labai tinkami ir tikslūs specializuotoms programoms ir duomenų rinkiniams, padidinant jų naudingumą įvairiuose pramonės sektoriuose."
  • question: "Kokios yra komercinio licencijavimo sąlygos Gemma 4 modeliams ir koks yra jų prieinamumas kūrėjams?" answer: "Gemma 4 modeliai yra labai prieinami kūrėjams ir įmonėms, nes juos galima naudoti pagal komerciniu požiūriu patogią Apache 2.0 licenciją. Ši atvirojo kodo licencija leidžia plačiai naudoti, modifikuoti ir platinti modelius, palengvinant jų integravimą į įvairius komercinius produktus ir paslaugas be ribojančių licencijavimo mokesčių. Be to, NVIDIA užtikrina platų prieinamumą visoje savo DI platformoje, nuo Blackwell duomenų centrų iki Jetson pakraščio įrenginių. Kūrėjai gali nedelsdami pradėti, pasiekdami modelių kontrolinius taškus Hugging Face, naudodami išsamią NVIDIA dokumentaciją ir mokymo programas bei pasitelkdami tokias priemones kaip vLLM, Ollama ir NeMo diegimui ir pritaikymui, todėl pažangus DI tampa lengvai prieinamas naujovėms."

Dirbtinio intelekto kraštovaizdis sparčiai vystosi, o auga poreikis diegti pažangius DI modelius ne tik debesų duomenų centruose, bet ir pačiame tinklų pakraštyje bei tiesiogiai vartotojų įrenginiuose. Šį pokytį lemia poreikis mažesnei delsai, didesniam privatumui, sumažintoms veiklos sąnaudoms ir gebėjimui veikti aplinkose su ribotu ryšiu. Siekdamos patenkinti šiuos kritinius reikalavimus, NVIDIA ir Google bendradarbiavo pristatydamos naujausius **Gemma 4** daugiarūšius ir daugiakalbius modelius, sukurtus sklandžiai keisti mastelį nuo galingiausių NVIDIA Blackwell duomenų centrų iki kompaktiškų Jetson pakraščio įrenginių.

Šie modeliai žymi didelį efektyvumo ir tikslumo šuolį, todėl jie tampa universaliomis priemonėmis plačiam įprastų DI užduočių spektrui. Gemma 4 šeima yra pasirengusi iš naujo apibrėžti, kaip DI integruojamas į kasdienes programas, siūlydama galimybes, kurios plečia ribas to, kas įmanoma vietiniame DI diegime.

## Gemma 4: Daugiarūšio ir daugiakalbio DI pažanga

„Gemmaverse“ išsiplėtė pristatydamas keturis naujus Gemma 4 modelius, kurių kiekvienas sukurtas atsižvelgiant į konkrečius diegimo scenarijus, tuo pačiu siūlant patikimą galimybių rinkinį. Šie modeliai yra ne tik apie dydį; jie yra apie protingą dizainą, užtikrinantį puikų našumą sprendžiant įvairius DI iššūkius.

Pagrindinės Gemma 4 modelių galimybės apima:

*   **Mąstymas:** Išskirtinis našumas sprendžiant sudėtingas problemas, leidžiantis priimti sudėtingesnius sprendimus.
*   **Kodavimas:** Pažangios kodo generavimo ir derinimo funkcijos, supaprastinančios kūrėjų darbo eigą.
*   **Agentai:** Vietinis struktūrizuotų įrankių naudojimo palaikymas, palengvinantis galingų agentinių DI sistemų kūrimą.
*   **Vaizdo, garso ir vaizdo galimybės:** Turtinga daugiarūšė sąveika tokiems naudojimo atvejams kaip objektų atpažinimas, automatinis kalbos atpažinimas (ASR), dokumentų ir vaizdo intelektas.
*   **Persidengiantis daugiarūšis įvestis:** Galimybė laisvai maišyti tekstą ir vaizdus viename raginime, siūlant natūralesnę ir išsamesnę sąveiką.
*   **Daugiakalbis palaikymas:** Paruoštas naudoti palaikymas daugiau nei 35 kalboms, išankstinis apmokymas daugiau nei 140 kalbų, plečiant pasaulinį prieinamumą.

Gemma 4 šeima apima pirmąjį „Mixture-of-Experts“ (MoE) modelį Gemma serijoje, optimizuotą efektyvumui. Nuostabu, kad visi keturi modeliai gali tilpti į vieną NVIDIA H100 GPU, demonstruodami savo optimizuotą dizainą. 31B ir 26B A4B variantai yra našūs mąstymo modeliai, tinkantys tiek vietinei, tiek duomenų centrų aplinkai, o E4B ir E2B modeliai yra specialiai pritaikyti įrenginiams ir mobiliesiems programoms, remiantis Gemma 3n palikimu.

| Modelio pavadinimas | Architektūros tipas | Bendras parametrų skaičius | Aktyvūs arba efektyvūs parametrai | Įvesties konteksto ilgis (ženklai) | Slankiojantis langas (ženklai) | Modalumai |
| :---------------- | :---------------- | :------------------ | :----------------------------- | :-------------------------- | :---------------------- | :---------------------- |
| **Gemma-4-31B** | Tankus transformatorius | 31B | — | 256K | 1024 | Tekstas |
| **Gemma-4-26B-A4B** | MoE – 128 ekspertai | 26B | 3.8B | 256K | — | Tekstas |
| **Gemma-4-E4B** | Tankus transformatorius | 7.9B su įterpimais | 4.5B efektyvus | 128K | 512 | Tekstas, garsas, vaizdas, vaizdo įrašas |
| **Gemma-4-E2B** | Tankus transformatorius | 5.1B su įterpimais | 2.3B efektyvus | 128K | 512 | Tekstas, garsas, vaizdas, vaizdo įrašas |

*1 lentelė. Gemma 4 modelių šeimos apžvalga, apibendrinanti architektūros tipus, parametrų dydžius, efektyvius parametrus, palaikomus konteksto ilgius ir galimus modalumus, padedanti kūrėjams pasirinkti tinkamą modelį duomenų centrui, pakraščiui ir įrenginiams.*

Šie modeliai pasiekiami per Hugging Face su BF16 kontroliniais taškais. Kūrėjams, naudojantiems NVIDIA Blackwell GPU, NVFP4 kvantuotas Gemma-4-31B kontrolinis taškas pasiekiamas per [NVIDIA Model Optimizer](https://github.com/NVIDIA/Model-Optimizer), skirtas naudoti su vLLM. NVFP4 tikslumas išlaiko beveik identišką tikslumą 8 bitų tikslumui, tuo pačiu žymiai pagerindamas našumą vienam vatui ir sumažindamas sąnaudas vienam tokenui, o tai yra labai svarbu didelio masto diegimui.

## DI perkėlimas į pakraštį: diegimas įrenginyje su NVIDIA aparatine įranga

Kadangi DI darbo eigų ir agentų integravimas į kasdienes operacijas tampa vis svarbesnis, galimybė paleisti šiuos modelius už tradicinių duomenų centrų aplinkų ribų yra itin svarbi. NVIDIA siūlo išsamią klientų ir pakraščio sistemų ekosistemą, nuo galingų [gpus](/lt/gpus), tokių kaip RTX gpus, iki specializuotų Jetson įrenginių ir DGX Spark, suteikiant kūrėjams lankstumą, reikalingą optimizuoti sąnaudas, delsą ir saugumą.

NVIDIA bendradarbiavo su pagrindinėmis išvadų sistemomis, tokiomis kaip vLLM, Ollama ir llama.cpp, kad užtikrintų optimalią vietinio Gemma 4 modelių diegimo patirtį. Be to, Unsloth suteikia palaikymą nuo pirmos dienos su optimizuotais ir kvantuotais modeliais, leidžiančiais efektyviai diegti vietoje per [Unsloth Studio](https://unsloth.ai/docs/models/gemma-4). Ši patikima palaikymo sistema suteikia kūrėjams galimybę diegti sudėtingą DI tiesiogiai ten, kur to labiausiai reikia.

| | **DGX Spark** | **Jetson** | **RTX / RTX PRO** |
| :---------------------------- | :----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| **Naudojimo atvejis** | DI tyrimai ir prototipų kūrimas | Pakraščio DI ir robotika | Stalinių kompiuterių programos ir Windows kūrimas |
| **Pagrindiniai akcentai** | Iš anksto įdiegta NVIDIA DI programinės įrangos grupė ir 128 GB vientisos atminties, skirtos vietiniam prototipų kūrimui, patobulinimui ir visiškai vietinėms OpenClaw darbo eigoms | Beveik nulinė delsa dėl architektūros funkcijų, tokių kaip sąlyginis parametrų įkėlimas ir sluoksnių įterpimai, kurie gali būti talpykloje, kad būtų greičiau ir sumažintas atminties naudojimas ( [daugiau informacijos](https://ai.google.dev/gemma/docs/gemma-3n)) | Optimizuotas našumas vietinėms išvadoms mėgėjams, kūrėjams ir profesionalams |
| **Pradžios vadovas** | [DGX Spark žaidimų vadovai](https://build.nvidia.com/spark) skirti vLLM, Ollama, Unsloth ir llama.cpp diegimo vadovams<br/>[NeMo Automodel](https://github.com/NVIDIA-NeMo/Automodel/tree/main/docs/guides/vlm/gemma4.md) skirtas patobulinimui Spark vadove | [Jetson AI laboratorija](https://www.jetson-ai-lab.com/models/) mokymo programoms ir pasirinktiniams Gemma konteineriams | [RTX AI garažas](https://blogs.nvidia.com/blog/rtx-ai-garage-open-models-google-gemma-4) Ollama ir llama.cpp vadovams. RTX Pro savininkai taip pat gali naudoti vLLM. |

*2 lentelė. Vietinių diegimo galimybių palyginimas įvairiose NVIDIA platformose, pabrėžiant pagrindinius naudojimo atvejus, pagrindines galimybes ir rekomenduojamus pradžios šaltinius DGX Spark, Jetson ir RTX / RTX PRO sistemoms, veikiančioms su Gemma 4 modeliais.*

## Saugus agentinių darbo eigų ir įmonėms paruoštų diegimų kūrimas

DI kūrėjams ir entuziastams NVIDIA DGX Spark, turintis GB10 Grace Blackwell Superchip ir 128 GB vieningos atminties, siūlo neprilygstamus resursus. Ši patikima platforma idealiai tinka paleisti Gemma 4 31B modelį su BF16 svoriais, leidžianti efektyviai prototipuoti ir kurti sudėtingas [agentines DI darbo eigas](/lt/operationalizing-agentic-ai-part-1-a-stakeholders-guide), užtikrinant privatų ir saugų vykdymą įrenginyje. DGX Linux OS ir visa NVIDIA programinės įrangos grupė suteikia vientisą kūrimo aplinką.

vLLM išvadų variklis, sukurtas didelio pralaidumo DML aptarnavimui, maksimaliai padidina efektyvumą ir sumažina atminties naudojimą DGX Spark. Šis derinys suteikia didelio našumo platformą didžiausių Gemma 4 modelių diegimui. Kūrėjai gali pasinaudoti [vLLM skirto Inference DGX Spark žaidimų vadovu](https://build.nvidia.com/spark/vllm) arba pradėti nuo Ollama ar llama.cpp. Be to, NeMo Automodel leidžia patobulinti šiuos modelius tiesiogiai DGX Spark.

Įmonių vartotojams NVIDIA NIM siūlo kelią į gamybai paruoštą diegimą. Kūrėjai gali prototipuoti Gemma 4 31B, naudodami NVIDIA talpinamą NIM API iš [NVIDIA API katalogo](https://catalog.ngc.nvidia.com/orgs/nim/teams/google/containers/gemma-4-31b-it). Visapusiškai gamybai yra prieinami iš anksto supakuoti ir optimizuoti NIM mikroservisai, skirti saugiam, savarankiškai talpinamam diegimui, palaikomi NVIDIA Enterprise License. Tai užtikrina, kad įmonės gali užtikrintai diegti galingus DI sprendimus, atitinkančius griežtus saugumo ir veiklos reikalavimus.

## Fizinių DI agentų įgalinimas su NVIDIA Jetson

Šiuolaikinių fizinių DI agentų galimybės sparčiai tobulėja, daugiausia dėl Gemma 4 modelių, integruojančių sudėtingą garsą, daugiarūšį suvokimą ir gilų mąstymą. Šie pažangūs modeliai leidžia robotikos sistemoms pereiti nuo supaprastinto užduočių vykdymo, suteikiant joms galimybę suprasti kalbą, interpretuoti vizualinį kontekstą ir protingai mąstyti prieš veikdamos.

NVIDIA Jetson platformose kūrėjai gali atlikti Gemma 4 išvadas pakraštyje, naudodami llama.cpp ir vLLM. Pavyzdžiui, Jetson Orin Nano palaiko Gemma 4 E2B ir E4B variantus, palengvindamas daugiarūšę išvadą mažose, įterptosiose ir energijos atžvilgiu ribotose sistemose. Šios mastelio keitimo galimybės apima visą Jetson platformą, iki pat galingojo Jetson Thor, leidžiantį nuoseklų modelio diegimą, nepaisant aparatinės įrangos pėdsako. Tai yra labai svarbu robotikos, išmaniųjų mašinų ir pramoninės automatizacijos srityse, kur labai svarbu maža delsa ir įrenginio intelektas. Kūrėjai, norintys ištirti šias galimybes, gali rasti mokymo programas ir pasirinktinius Gemma konteinerius [Jetson AI laboratorijoje](https://www.jetson-ai-lab.com/models/).

## Pritaikymas ir komercinis prieinamumas su NVIDIA NeMo

Siekiant užtikrinti, kad Gemma 4 modeliai galėtų būti pritaikyti konkrečioms programoms ir nuosaviems duomenų rinkiniams, NVIDIA siūlo tvirtas patobulinimo galimybes per [NVIDIA NeMo sistemą](https://github.com/NVIDIA-NeMo/). Ypač [NeMo Automodel](https://github.com/NVIDIA-NeMo/Automodel/tree/main/docs/guides/vlm/gemma4.md) biblioteka sujungia vietinio PyTorch naudojimo paprastumą su optimizuotu našumu, todėl pritaikymo procesas yra prieinamas ir efektyvus.

Kūrėjai gali pasinaudoti tokiomis technikomis kaip prižiūrimas patobulinimas (SFT) ir atmintį taupantis LoRA (žemo rango adaptacija), kad atliktų „day-zero“ patobulinimą. Šis procesas prasideda tiesiogiai nuo Gemma 4 modelių kontrolinių taškų, pasiekiamų [Hugging Face](https://huggingface.co/collections/google/gemma-4), pašalinant sudėtingų konversijos žingsnių poreikį. Šis lankstumas leidžia įmonėms ir tyrėjams įdiegti Gemma 4 modeliams specifines domenų žinias, užtikrinant aukštą tikslumą ir tinkamumą specializuotoms užduotims.

Gemma 4 modeliai yra lengvai prieinami visoje NVIDIA DI platformoje ir siūlomi pagal komerciniu požiūriu patogią Apache 2.0 licenciją. Ši atvirojo kodo licencija palengvina platų priėmimą ir integravimą į komercinius produktus ir paslaugas, suteikiant kūrėjams visame pasaulyje galimybę kurti naujoves su pažangiausiu DI. Nuo Blackwell našumo iki Jetson platformų paplitimo, Gemma 4 yra pasirengusi priartinti pažangų DI prie kiekvieno kūrėjo ir kiekvieno įrenginio.

Dažniausiai užduodami klausimai

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Būkite informuoti

Gaukite naujausias AI naujienas el. paštu.

Dalintis