Code Velocity
AI modeli

Gemma 4: Skaliranje umjetne inteligencije od podatkovnog centra do ruba uz NVIDIA

·5 min čitanja·NVIDIA·Izvorni izvor
Podijeli
NVIDIA Gemma 4 modeli omogućuju AI na rubnim uređajima i u podatkovnim centrima

Pejzaž umjetne inteligencije brzo se razvija, uz rastuću potražnju za implementacijom naprednih AI modela ne samo u podatkovnim centrima u oblaku, već i na samom rubu mreža i izravno na korisničkim uređajima. Ovu promjenu pokreće potreba za manjom latencijom, poboljšanom privatnošću, smanjenim operativnim troškovima i sposobnošću rada u okruženjima s ograničenom povezanošću. Rješavajući ove kritične zahtjeve, NVIDIA i Google su surađivali na predstavljanju najnovijih Gemma 4 multimodalnih i višejezičnih modela, projektiranih za besprijekorno skaliranje od najmoćnijih NVIDIA Blackwell podatkovnih centara do kompaktnih Jetson rubnih uređaja.

Ovi modeli predstavljaju značajan skok u učinkovitosti i točnosti, čineći ih svestranim alatima za širok spektar uobičajenih AI zadataka. Obitelj Gemma 4 spremna je redefinirati način na koji se AI integrira u svakodnevne aplikacije, nudeći mogućnosti koje pomiču granice onoga što je moguće u lokalnoj implementaciji AI-ja.

Gemma 4: Unapređenje multimodalne i višejezične umjetne inteligencije

Gemmaverse se proširio uvođenjem četiri nova Gemma 4 modela, svaki dizajniran s posebnim scenarijima implementacije na umu, istovremeno nudeći robustan skup mogućnosti. Ovi modeli nisu samo o veličini; radi se o inteligentnom dizajnu, pružajući snažne performanse u različitim AI izazovima.

Osnovne mogućnosti Gemma 4 modela uključuju:

  • Zaključivanje: Iznimne performanse u zadacima rješavanja složenih problema, omogućujući sofisticiranije donošenje odluka.
  • Kodiranje: Napredne značajke generiranja koda i otklanjanja pogrešaka, pojednostavljujući radne tokove programera.
  • Agenti: Nativna podrška za strukturirano korištenje alata, olakšavajući stvaranje moćnih agentnih AI sustava.
  • Mogućnost vida, zvuka i videa: Bogate multimodalne interakcije za slučajeve upotrebe kao što su prepoznavanje objekata, automatsko prepoznavanje govora (ASR), inteligencija dokumenata i videa.
  • Isprepleteni multimodalni unos: Mogućnost slobodnog miješanja teksta i slika unutar jednog upita, nudeći prirodniju i sveobuhvatniju interakciju.
  • Višejezična podrška: Izravna podrška za više od 35 jezika, s preobukom na više od 140 jezika, proširujući globalnu dostupnost.

Obitelj Gemma 4 uključuje prvi Mixture-of-Experts (MoE) model u seriji Gemma, optimiziran za učinkovitost. Izvanredno, sva četiri modela mogu stati na jedan NVIDIA H100 GPU, pokazujući njihov optimizirani dizajn. Varijante 31B i 26B A4B su visoko učinkoviti modeli zaključivanja prikladni za lokalna i podatkovna centerska okruženja, dok su modeli E4B i E2B specifično prilagođeni za aplikacije na uređaju i mobilne aplikacije, nadograđujući naslijeđe Gemma 3n.

Naziv modelaVrsta arhitektureUkupno parametaraAktivni ili učinkoviti parametriDužina ulaznog konteksta (tokena)Klizni prozor (tokena)Modaliteti
Gemma-4-31BDense Transformer31B256K1024Tekst
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256KTekst
Gemma-4-E4BDense Transformer7.9B with embeddings4.5B effective128K512Tekst, zvuk, vid, video
Gemma-4-E2BDense Transformer5.1B with embeddings2.3B effective128K512Tekst, zvuk, vid, video

Tablica 1. Pregled obitelji modela Gemma 4, sa sažetkom vrsta arhitektura, veličina parametara, učinkovitih parametara, podržanih duljina konteksta i dostupnih modaliteta kako bi se programerima pomoglo odabrati pravi model za implementacije u podatkovnim centrima, na rubu mreže i na uređaju.

Ovi modeli dostupni su na Hugging Face s BF16 kontrolnim točkama. Za programere koji koriste NVIDIA Blackwell GPU-ove, NVFP4 kvantizirana kontrolna točka za Gemma-4-31B dostupna je putem NVIDIA Model Optimizer za korištenje s vLLM-om. NVFP4 preciznost održava gotovo identičnu točnost kao 8-bitna preciznost, istovremeno značajno poboljšavajući performanse po vatu i smanjujući troškove po tokenu, što je ključno za implementacije velikih razmjera.

Dovođenje umjetne inteligencije na rub: Implementacija na uređaju s NVIDIA hardverom

Kako AI radni tokovi i agenti postaju sve integralniji dio svakodnevnih operacija, sposobnost pokretanja ovih modela izvan tradicionalnih okruženja podatkovnih centara je od najveće važnosti. NVIDIA nudi sveobuhvatan ekosustav klijentskih i rubnih sustava, od moćnih GPU-ova poput RTX GPU-ova do specijaliziranih Jetson uređaja i DGX Sparka, pružajući programerima fleksibilnost potrebnu za optimizaciju troškova, latencije i sigurnosti.

NVIDIA je surađivala s vodećim inferencijskim frameworkima poput vLLM, Ollama i llama.cpp kako bi osigurala optimalno lokalno iskustvo implementacije za Gemma 4 modele. Osim toga, Unsloth pruža podršku od prvog dana s optimiziranim i kvantiziranim modelima, omogućujući učinkovitu lokalnu implementaciju putem Unsloth Studio. Ovaj robustan sustav podrške omogućuje programerima da implementiraju sofisticiranu AI izravno tamo gdje je najpotrebnija.

DGX SparkJetsonRTX / RTX PRO
Slučaj upotrebeIstraživanje i prototipiranje AIAI na rubu i robotikaDesktop aplikacije i razvoj za Windows
Ključne značajkePredinstalirani NVIDIA AI softverski stog i 128 GB objedinjene memorije pokreću lokalno prototipiranje, precizno podešavanje i potpuno lokalne OpenClaw radne tokoveLatencija blizu nule zbog arhitektonskih značajki kao što su uvjetno učitavanje parametara i ugradnje po sloju koje se mogu keširati za bržu i smanjenu upotrebu memorije ( više informacija)Optimizirane performanse za lokalno zaključivanje za hobiste, kreatore i profesionalce
Vodič za početakDGX Spark Playbooks za vLLM, Ollama, Unsloth i llama.cpp vodiče za implementaciju
NeMo Automodel vodič za precizno podešavanje na Sparku
Jetson AI Lab za tutorijale i prilagođene Gemma kontejnereRTX AI Garage za Ollama i llama.cpp vodiče. Vlasnici RTX Pro također mogu koristiti vLLM.

Tablica 2. Usporedba opcija lokalne implementacije na NVIDIA platformama, ističući primarne slučajeve upotrebe, ključne mogućnosti i preporučene resurse za početak rada za DGX Spark, Jetson i RTX / RTX PRO sustave koji pokreću Gemma 4 modele.

Izgradnja sigurnih agentnih radnih tokova i implementacija spremnih za poduzeća

Za AI programere i entuzijaste, NVIDIA DGX Spark, s GB10 Grace Blackwell Superčipom i 128 GB objedinjene memorije, nudi neusporedive resurse. Ova robusna platforma idealna je za pokretanje Gemma 4 31B modela s BF16 težinama, omogućujući učinkovito prototipiranje i izgradnju složenih agentnih AI radnih tokova uz osiguravanje privatnog i sigurnog izvršavanja na uređaju. DGX Linux OS i puni NVIDIA softverski stog pružaju besprijekorno razvojno okruženje.

vLLM inferencijski mehanizam, dizajniran za posluživanje LLM-ova visoke propusnosti, maksimizira učinkovitost i minimizira korištenje memorije na DGX Sparku. Ova kombinacija pruža platformu visokih performansi za implementaciju najvećih Gemma 4 modela. Programeri mogu iskoristiti vLLM for Inference DGX Spark playbook ili započeti s Ollama ili llama.cpp. Nadalje, NeMo Automodel omogućuje precizno podešavanje ovih modela izravno na DGX Sparku.

Za poslovne korisnike, NVIDIA NIM nudi put do implementacije spremne za produkciju. Programeri mogu prototipirati Gemma 4 31B koristeći NVIDIA-in hostirani NIM API iz NVIDIA API kataloga. Za potpunu produkciju, dostupne su unaprijed zapakirane i optimizirane NIM mikrousluge za sigurnu, samostalno hostiranu implementaciju, podržane NVIDIA Enterprise licencom. To osigurava da poduzeća mogu s povjerenjem implementirati moćna AI rješenja, ispunjavajući stroge sigurnosne i operativne zahtjeve.

Osnaživanje fizičkih AI agenata s NVIDIA Jetsonom

Mogućnosti modernih fizičkih AI agenata brzo napreduju, uglavnom zahvaljujući Gemma 4 modelima koji integriraju sofisticiranu audio, multimodalnu percepciju i duboko zaključivanje. Ovi napredni modeli omogućuju robotskim sustavima da se pomaknu izvan pojednostavljenog izvršavanja zadataka, dajući im sposobnost razumijevanja govora, interpretacije vizualnog konteksta i inteligentnog zaključivanja prije djelovanja.

Na NVIDIA Jetson platformama, programeri mogu izvoditi Gemma 4 zaključivanje na rubu mreže koristeći llama.cpp i vLLM. Jetson Orin Nano, na primjer, podržava Gemma 4 E2B i E4B varijante, olakšavajući multimodalno zaključivanje na malim, ugrađenim sustavima s ograničenom snagom. Ova sposobnost skaliranja proteže se na cijelu Jetson platformu, sve do moćnog Jetson Thor-a, omogućujući dosljednu implementaciju modela bez obzira na hardverski otisak. To je ključno za aplikacije u robotici, pametnim strojevima i industrijskoj automatizaciji gdje su performanse niske latencije i inteligencija na uređaju od najveće važnosti. Programeri zainteresirani za istraživanje ovih mogućnosti mogu pronaći tutorijale i prilagođene Gemma kontejnere na Jetson AI Lab.

Prilagodba i komercijalna dostupnost s NVIDIA NeMo

Kako bi se osiguralo da se Gemma 4 modeli mogu prilagoditi specifičnim aplikacijama i vlasničkim skupovima podataka, NVIDIA nudi robusne mogućnosti preciznog podešavanja putem NVIDIA NeMo frameworka. Biblioteka NeMo Automodel, posebno, kombinira jednostavnost korištenja izvornog PyTorcha s optimiziranim performansama, čineći proces prilagodbe dostupnim i učinkovitim.

Programeri mogu iskoristiti tehnike kao što su nadzirano precizno podešavanje (SFT) i memorijski učinkovito LoRA (Low-Rank Adaptation) za izvođenje 'day-zero' preciznog podešavanja. Ovaj proces započinje izravno s Gemma 4 kontrolnih točaka modela dostupnih na Hugging Face, eliminirajući potrebu za glomaznim koracima konverzije. Ova fleksibilnost omogućuje poduzećima i istraživačima da Gemma 4 modele obogate znanjem specifičnim za domenu, osiguravajući visoku točnost i relevantnost za specijalizirane zadatke.

Gemma 4 modeli su lako dostupni na cijeloj NVIDIA AI platformi i nude se pod komercijalno prijateljskom Apache 2.0 licencom. Ova open-source licenca olakšava široko prihvaćanje i integraciju u komercijalne proizvode i usluge, osnažujući programere diljem svijeta da inoviraju s vrhunskom AI. Od performansi Blackwell-a do sveprisutnosti Jetson platformi, Gemma 4 je postavljena da približi naprednu AI svakom programeru i svakom uređaju.

Često postavljana pitanja

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli