Code Velocity
AI Modeli

Gemma 4: Skaliranje veštačke inteligencije od data centra do ivice uz NVIDIA

·5 min čitanja·NVIDIA·Originalni izvor
Podeli
NVIDIA Gemma 4 modeli omogućavaju AI na edge uređajima i data centrima

Pejzaž veštačke inteligencije se brzo razvija, sa rastućom potražnjom za primenom naprednih AI modela ne samo u cloud data centrima, već i na samom rubu mreža i direktno na korisničkim uređajima. Ovaj pomak je vođen potrebom za nižom latencijom, poboljšanom privatnošću, smanjenim operativnim troškovima i sposobnošću rada u okruženjima sa ograničenom povezanošću. Odgovarajući na ove kritične zahteve, NVIDIA i Google su sarađivali kako bi predstavili najnovije Gemma 4 multimodalne i višejezične modele, dizajnirane da se besprekorno skaliraju od najmoćnijih NVIDIA Blackwell data centara do kompaktnih Jetson edge uređaja.

Ovi modeli predstavljaju značajan iskorak u efikasnosti i tačnosti, čineći ih svestranim alatima za širok spektar uobičajenih AI zadataka. Porodica Gemma 4 je spremna da redefiniše način na koji se AI integriše u svakodnevne aplikacije, nudeći mogućnosti koje pomeraju granice onoga što je moguće u lokalnoj primeni AI.

Gemma 4: Unapređenje multimodalne i višejezične veštačke inteligencije

Gemmaverse se proširio uvođenjem četiri nova Gemma 4 modela, od kojih je svaki dizajniran sa specifičnim scenarijima primene na umu, dok istovremeno nudi robustan skup mogućnosti. Ovi modeli nisu samo o veličini; oni su o inteligentnom dizajnu, pružajući snažne performanse u različitim AI izazovima.

Ključne mogućnosti Gemma 4 modela uključuju:

  • Rezonovanje: Izuzetne performanse u rešavanju složenih problema, omogućavajući sofisticiranije donošenje odluka.
  • Kodiranje: Napredne funkcije za generisanje koda i otklanjanje grešaka, pojednostavljujući radne tokove programera.
  • Agenti: Izvorna podrška za strukturirano korišćenje alata, olakšavajući kreiranje moćnih agentskih AI sistema.
  • Mogućnosti za viziju, zvuk i video: Bogate multimodalne interakcije za slučajeve upotrebe kao što su prepoznavanje objekata, automatsko prepoznavanje govora (ASR), inteligencija dokumenata i videa.
  • Isprepleteni multimodalni ulaz: Mogućnost slobodnog kombinovanja teksta i slika unutar jednog upita, nudeći prirodniju i sveobuhvatniju interakciju.
  • Višejezična podrška: Podrška 'iz kutije' za preko 35 jezika, sa prethodnom obukom na više od 140 jezika, proširujući globalnu dostupnost.

Porodica Gemma 4 uključuje prvi Mixture-of-Experts (MoE) model u seriji Gemma, optimizovan za efikasnost. Izvanredno je to što sva četiri modela mogu da stanu na jedan NVIDIA H100 GPU, demonstrirajući njihov optimizovan dizajn. Varijante 31B i 26B A4B su modeli za rezonovanje visokih performansi pogodni i za lokalna i za data centar okruženja, dok su E4B i E2B modeli specifično prilagođeni za aplikacije na uređajima i mobilne aplikacije, nastavljajući nasleđe Gemma 3n.

Naziv modelaTip arhitektureUkupni parametriAktivni ili efektivni parametriDužina ulaznog konteksta (tokena)Klizni prozor (tokena)Modaliteti
Gemma-4-31BDense Transformer31B256K1024Tekst
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256KTekst
Gemma-4-E4BDense Transformer7.9B with embeddings4.5B effective128K512Tekst, Zvuk, Vizija, Video
Gemma-4-E2BDense Transformer5.1B with embeddings2.3B effective128K512Tekst, Zvuk, Vizija, Video

Tabela 1. Pregled porodice modela Gemma 4, sumirajući tipove arhitekture, veličine parametara, efektivne parametre, podržane dužine konteksta i dostupne modalitete kako bi pomogli programerima da izaberu pravi model za primenu u data centrima, na ivici i na uređaju.

Ovi modeli su dostupni na Hugging Face sa BF16 kontrolnim tačkama. Za programere koji koriste NVIDIA Blackwell GPU-ove, NVFP4 kvantizovana kontrolna tačka za Gemma-4-31B je dostupna putem NVIDIA Model Optimizer za korišćenje sa vLLM. NVFP4 preciznost održava skoro identičnu tačnost kao 8-bitna preciznost, istovremeno značajno poboljšavajući performanse po vatu i smanjujući troškove po tokenu, što je ključno za primene velikih razmera.

Dovodeći AI do ivice: Primena na uređaju sa NVIDIA hardverom

Kako AI radni tokovi i agenti postaju sve više sastavni deo svakodnevnih operacija, sposobnost pokretanja ovih modela izvan tradicionalnih okruženja data centara je od suštinskog značaja. NVIDIA nudi sveobuhvatan ekosistem klijentskih i edge sistema, od moćnih GPU-ova poput RTX GPU-ova do specijalizovanih Jetson uređaja i DGX Spark, pružajući programerima fleksibilnost potrebnu za optimizaciju troškova, latencije i bezbednosti.

NVIDIA je sarađivala sa vodećim inferencijalnim frameworkovima kao što su vLLM, Ollama i llama.cpp kako bi osigurala optimalno iskustvo lokalne primene za Gemma 4 modele. Dodatno, Unsloth pruža podršku od prvog dana sa optimizovanim i kvantizovanim modelima, omogućavajući efikasnu lokalnu primenu putem Unsloth Studio. Ovaj robustan sistem podrške omogućava programerima da primene sofisticirani AI direktno tamo gde je najpotrebniji.

DGX SparkJetsonRTX / RTX PRO
Slučaj upotrebeIstraživanje i prototipizacija AIEdge AI i robotikaDesktop aplikacije i razvoj za Windows
Ključne karakteristikeUnapred instaliran NVIDIA AI softverski stek i 128 GB objedinjene memorije pokreću lokalnu prototipizaciju, finiširanje i potpuno lokalne OpenClaw radne tokoveSkoro nulta latencija zbog arhitektonskih karakteristika kao što su uslovno učitavanje parametara i ugradnje po sloju koje se mogu keširati za bržu i smanjenu upotrebu memorije ( više informacija)Optimizovane performanse za lokalno zaključivanje za hobiste, kreatore i profesionalce
Vodič za početak radaDGX Spark Playbook-ovi za vLLM, Ollama, Unsloth i llama.cpp vodiče za primenu
NeMo Automodel za finiširanje na Spark vodiču
Jetson AI Lab za tutorijale i prilagođene Gemma kontejnereRTX AI Garage za Ollama i llama.cpp vodiče. Vlasnici RTX Pro takođe mogu koristiti vLLM.

Tabela 2. Poređenje opcija lokalne primene na NVIDIA platformama, ističući primarne slučajeve upotrebe, ključne mogućnosti i preporučene resurse za početak rada sa DGX Spark, Jetson i RTX / RTX PRO sistemima koji pokreću Gemma 4 modele.

Izgradnja bezbednih agentskih tokova rada i primena spremnih za preduzeća

Za AI programere i entuzijaste, NVIDIA DGX Spark, sa GB10 Grace Blackwell Superchipom i 128 GB objedinjene memorije, nudi neuporedive resurse. Ova robusna platforma je idealna za pokretanje Gemma 4 31B modela sa BF16 težinama, omogućavajući efikasnu prototipizaciju i izgradnju složenih agentskih AI radnih tokova, istovremeno osiguravajući privatno i bezbedno izvršavanje na uređaju. DGX Linux OS i kompletan NVIDIA softverski stek pružaju besprekorno razvojno okruženje.

vLLM inferencijalni engine, dizajniran za služenje LLM-ova visokog propusnog opsega, maksimizira efikasnost i minimizira korišćenje memorije na DGX Spark. Ova kombinacija pruža platformu visokih performansi za primenu najvećih Gemma 4 modela. Programeri mogu iskoristiti vLLM for Inference DGX Spark playbook ili započeti rad sa Ollama ili llama.cpp. Štaviše, NeMo Automodel omogućava finiširanje ovih modela direktno na DGX Spark.

Za korporativne korisnike, NVIDIA NIM nudi put do primene spremne za produkciju. Programeri mogu prototipizovati Gemma 4 31B koristeći NVIDIA-hostovani NIM API iz NVIDIA API kataloga. Za potpunu produkciju, unapred pakovani i optimizovani NIM mikroservisi su dostupni za bezbednu, samostalno hostovanu primenu, podržani NVIDIA Enterprise licencom. Ovo osigurava da preduzeća mogu sa sigurnošću primeniti moćna AI rešenja, ispunjavajući stroge bezbednosne i operativne zahteve.

Osnaživanje fizičkih AI agenata sa NVIDIA Jetson

Mogućnosti modernih fizičkih AI agenata se brzo unapređuju, uglavnom zahvaljujući Gemma 4 modelima koji integrišu sofisticiranu audio, multimodalnu percepciju i duboko rezonovanje. Ovi napredni modeli omogućavaju robotskim sistemima da se pomaknu izvan pojednostavljenog izvršavanja zadataka, dajući im sposobnost da razumeju govor, interpretiraju vizuelni kontekst i inteligentno rezonuju pre delovanja.

Na NVIDIA Jetson platformama, programeri mogu da obavljaju Gemma 4 zaključivanje na ivici koristeći llama.cpp i vLLM. Jetson Orin Nano, na primer, podržava Gemma 4 E2B i E4B varijante, olakšavajući multimodalno zaključivanje na malim, ugrađenim sistemima sa ograničenim napajanjem. Ova sposobnost skaliranja proteže se kroz celu Jetson platformu, sve do moćnog Jetson Thor-a, omogućavajući doslednu primenu modela bez obzira na hardverski otisak. Ovo je ključno za primene u robotici, pametnim mašinama i industrijskoj automatizaciji gde su performanse niske latencije i inteligencija na uređaju od suštinskog značaja. Programeri zainteresovani za istraživanje ovih mogućnosti mogu pronaći tutorijale i prilagođene Gemma kontejnere na Jetson AI Lab.

Prilagođavanje i komercijalna dostupnost uz NVIDIA NeMo

Kako bi se osiguralo da Gemma 4 modeli mogu biti prilagođeni specifičnim aplikacijama i vlasničkim skupovima podataka, NVIDIA nudi robustne mogućnosti finiširanja putem NVIDIA NeMo frameworka. Posebno, NeMo Automodel biblioteka kombinuje jednostavnost korišćenja izvornog PyTorch-a sa optimizovanim performansama, čineći proces prilagođavanja pristupačnim i efikasnim.

Programeri mogu iskoristiti tehnike kao što su nadgledano finiširanje (SFT) i memorijski efikasan LoRA (Low-Rank Adaptation) za obavljanje 'day-zero' finiširanja. Ovaj proces počinje direktno od kontrolnih tačaka Gemma 4 modela dostupnih na Hugging Face, eliminišući potrebu za glomaznim koracima konverzije. Ova fleksibilnost omogućava preduzećima i istraživačima da Gemma 4 modele obogate domenski specifičnim znanjem, osiguravajući visoku tačnost i relevantnost za specijalizovane zadatke.

Gemma 4 modeli su lako dostupni širom celokupne NVIDIA AI platforme i nude se pod komercijalno-prijateljskom Apache 2.0 licencom. Ova open-source licenca olakšava široko usvajanje i integraciju u komercijalne proizvode i usluge, osnažujući programere širom sveta da inoviraju sa najsavremenijim AI. Od performansi Blackwell-a do sveprisutnosti Jetson platformi, Gemma 4 je postavljena da približi napredni AI svakom programeru i svakom uređaju.

Često postavljana pitanja

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Будите у току

Примајте најновије AI вести на имејл.

Podeli