Code Velocity
Modely AI

Gemma 4: Škálování AI od datového centra k okraji s NVIDIA

·5 min čtení·NVIDIA·Původní zdroj
Sdílet
Modely NVIDIA Gemma 4 umožňující AI na okrajových zařízeních a v datových centrech

Krajina umělé inteligence se rychle vyvíjí, s rostoucí poptávkou po nasazování pokročilých modelů AI nejen v cloudových datových centrech, ale také na samotném okraji sítí a přímo na uživatelských zařízeních. Tento posun je poháněn potřebou nižší latence, zvýšeného soukromí, snížených provozních nákladů a schopnosti fungovat v prostředích s omezeným připojením. Pro řešení těchto kritických požadavků spolupracovaly společnosti NVIDIA a Google na zavedení nejnovějších multimodálních a vícejazyčných modelů Gemma 4, navržených tak, aby se plynule škálovaly od nejvýkonnějších datových center NVIDIA Blackwell až po kompaktní okrajová zařízení Jetson.

Tyto modely představují významný skok v efektivitě a přesnosti, čímž se stávají všestrannými nástroji pro širokou škálu běžných úloh AI. Rodina Gemma 4 je připravena předefinovat, jak je AI integrována do každodenních aplikací, a nabízí schopnosti, které posouvají hranice toho, co je možné v lokálním nasazení AI.

Gemma 4: Pokrok v multimodální a vícejazyčné AI

Gemmaverse se rozšířil o zavedení čtyř nových modelů Gemma 4, z nichž každý je navržen s ohledem na specifické scénáře nasazení a zároveň nabízí robustní sadu schopností. Tyto modely nejsou jen o velikosti; jsou o inteligentním designu, poskytující silný výkon napříč různými výzvami AI.

Mezi klíčové schopnosti modelů Gemma 4 patří:

  • Uvažování: Výjimečný výkon při řešení složitých problémů, umožňující sofistikovanější rozhodování.
  • Kódování: Pokročilé funkce pro generování kódu a ladění, zefektivňující pracovní postupy vývojářů.
  • Agenti: Nativní podpora pro strukturované používání nástrojů, usnadňující vytváření výkonných agentních AI systémů.
  • Zpracování obrazu, zvuku a videa: Bohaté multimodální interakce pro případy použití, jako je rozpoznávání objektů, automatické rozpoznávání řeči (ASR), inteligence dokumentů a videa.
  • Prokládaný multimodální vstup: Schopnost volně kombinovat text a obrázky v rámci jednoho promptu, což nabízí přirozenější a komplexnější interakci.
  • Vícejazyčná podpora: Out-of-the-box podpora pro více než 35 jazyků, s předtrénováním napříč více než 140 jazyky, rozšiřující globální dostupnost.

Rodina Gemma 4 zahrnuje první model Mixture-of-Experts (MoE) v sérii Gemma, optimalizovaný pro efektivitu. Je pozoruhodné, že všechny čtyři modely se vejdou na jedno GPU NVIDIA H100, což demonstruje jejich optimalizovaný design. Varianty 31B a 26B A4B jsou vysoce výkonné modely pro uvažování, vhodné pro lokální i datacentrová prostředí, zatímco modely E4B a E2B jsou speciálně přizpůsobeny pro aplikace na zařízení a mobilní aplikace, stavící na odkazu Gemma 3n.

Název modeluTyp architekturyCelkový počet parametrůAktivní nebo efektivní parametryDélka vstupního kontextu (tokeny)Posuvné okno (tokeny)Modality
Gemma-4-31BHustý transformátor31B256K1024Text
Gemma-4-26B-A4BMoE – 128 Expertů26B3.8B256KText
Gemma-4-E4BHustý transformátor7.9B s embeddingy4.5B efektivní128K512Text, Zvuk, Obraz, Video
Gemma-4-E2BHustý transformátor5.1B s embeddingy2.3B efektivní128K512Text, Zvuk, Obraz, Video

Tabulka 1. Přehled rodiny modelů Gemma 4, shrnující typy architektur, velikosti parametrů, efektivní parametry, podporované délky kontextu a dostupné modality, aby pomohl vývojářům vybrat správný model pro nasazení v datových centrech, na okraji sítě a na zařízeních.

Tyto modely jsou k dispozici na Hugging Face s kontrolními body BF16. Pro vývojáře využívající GPU NVIDIA Blackwell je k dispozici kvantovaný kontrolní bod NVFP4 pro Gemma-4-31B prostřednictvím NVIDIA Model Optimizer pro použití s vLLM. Přesnost NVFP4 udržuje téměř identickou přesnost jako 8bitová přesnost a zároveň významně zlepšuje výkon na watt a snižuje náklady na token, což je kritické pro rozsáhlá nasazení.

Přivedení AI k okraji sítě: Nasazení na zařízení s hardwarem NVIDIA

Vzhledem k tomu, že pracovní postupy AI a agenti se stávají stále nedílnou součástí každodenních operací, je schopnost spouštět tyto modely mimo tradiční prostředí datových center prvořadá. NVIDIA nabízí komplexní ekosystém klientských a okrajových systémů, od výkonných GPU jako jsou GPU RTX až po specializovaná zařízení Jetson a DGX Spark, poskytující vývojářům flexibilitu potřebnou k optimalizaci nákladů, latence a zabezpečení.

NVIDIA spolupracovala s předními inferenčními frameworky, jako jsou vLLM, Ollama a llama.cpp, aby zajistila optimální zkušenost s lokálním nasazením modelů Gemma 4. Kromě toho Unsloth poskytuje podporu od prvního dne s optimalizovanými a kvantovanými modely, umožňující efektivní lokální nasazení prostřednictvím Unsloth Studio. Tento robustní podpůrný systém umožňuje vývojářům nasadit sofistikovanou AI přímo tam, kde je nejvíce potřeba.

DGX SparkJetsonRTX / RTX PRO
Případ použitíVýzkum a prototypování AIOkrajová AI a robotikaDesktopové aplikace a vývoj pro Windows
Klíčové vlastnostiPředinstalovaný softwarový stack NVIDIA AI a 128 GB jednotné paměti pohání lokální prototypování, doladění a plně lokální pracovní postupy OpenClawTéměř nulová latence díky architektonickým prvkům, jako je podmíněné načítání parametrů a vložení na vrstvu, které lze cachovat pro rychlejší a snížené využití paměti ( více informací)Optimalizovaný výkon pro lokální inferenci pro amatéry, tvůrce a profesionály
Průvodce pro začátekPříručky DGX Spark pro průvodce nasazením vLLM, Ollama, Unsloth a llama.cpp
NeMo Automodel pro průvodce doladěním na Sparku
Jetson AI Lab pro tutoriály a vlastní kontejnery GemmaRTX AI Garage pro průvodce Ollama a llama.cpp. Majitelé RTX Pro mohou také použít vLLM.

Tabulka 2. Srovnání možností lokálního nasazení napříč platformami NVIDIA, zdůrazňující primární případy použití, klíčové schopnosti a doporučené zdroje pro začátek pro systémy DGX Spark, Jetson a RTX / RTX PRO běžící s modely Gemma 4.

Budování zabezpečených agentních pracovních postupů a nasazení připravených pro podniky

Pro vývojáře a nadšence AI nabízí NVIDIA DGX Spark, s superčipem GB10 Grace Blackwell a 128 GB jednotné paměti, bezkonkurenční zdroje. Tato robustní platforma je ideální pro spouštění modelu Gemma 4 31B s váhami BF16, což umožňuje efektivní prototypování a budování komplexních agentních pracovních postupů AI a zároveň zajišťuje soukromé a bezpečné spouštění na zařízení. Operační systém DGX Linux a plný softwarový stack NVIDIA poskytují bezproblémové vývojové prostředí.

Inference engine vLLM, navržený pro obsluhu LLM s vysokou propustností, maximalizuje efektivitu a minimalizuje využití paměti na DGX Spark. Tato kombinace poskytuje vysoce výkonnou platformu pro nasazení největších modelů Gemma 4. Vývojáři mohou využít příručku vLLM pro inferenci na DGX Spark nebo začít s Ollama či llama.cpp. Kromě toho NeMo Automodel umožňuje doladění těchto modelů přímo na DGX Spark.

Pro podnikové uživatele nabízí NVIDIA NIM cestu k nasazení připravenému pro produkci. Vývojáři mohou prototypovat Gemma 4 31B pomocí API NIM hostovaného společností NVIDIA z katalogu API NVIDIA. Pro plnohodnotnou produkci jsou k dispozici předbalené a optimalizované mikroslužby NIM pro bezpečné, samo-hostované nasazení, podporované licencí NVIDIA Enterprise. To zajišťuje, že podniky mohou s důvěrou nasazovat výkonná řešení AI, splňující přísné bezpečnostní a provozní požadavky.

Posílení fyzických agentů AI s NVIDIA Jetson

Schopnosti moderních fyzických agentů AI se rychle rozvíjejí, z velké části díky modelům Gemma 4 integrujícím sofistikovaný zvuk, multimodální percepci a hluboké uvažování. Tyto pokročilé modely umožňují robotickým systémům překonat jednoduché provádění úkolů, což jim dává schopnost rozumět řeči, interpretovat vizuální kontext a inteligentně uvažovat před jednáním.

Na platformách NVIDIA Jetson mohou vývojáři provádět inferenci Gemma 4 na okraji sítě pomocí llama.cpp a vLLM. Například Jetson Orin Nano podporuje varianty Gemma 4 E2B a E4B, což usnadňuje multimodální inferenci na malých, vestavěných a energeticky omezených systémech. Tato schopnost škálování se rozšiřuje napříč celou platformou Jetson, až po impozantní Jetson Thor, což umožňuje konzistentní nasazení modelů bez ohledu na hardwarovou stopu. To je klíčové pro aplikace v robotice, chytrých strojích a průmyslové automatizaci, kde je prvořadý výkon s nízkou latencí a inteligence na zařízení. Vývojáři, kteří se zajímají o prozkoumání těchto schopností, najdou tutoriály a vlastní kontejnery Gemma na Jetson AI Lab.

Přizpůsobení a komerční dostupnost s NVIDIA NeMo

Aby bylo zajištěno, že modely Gemma 4 mohou být přizpůsobeny specifickým aplikacím a proprietárním datovým sadám, NVIDIA nabízí robustní možnosti doladění prostřednictvím frameworku NVIDIA NeMo. Zejména knihovna NeMo Automodel kombinuje snadné použití nativního PyTorch s optimalizovaným výkonem, čímž se proces přizpůsobení stává dostupným a efektivním.

Vývojáři mohou využít techniky, jako je řízené doladění (SFT) a paměťově efektivní LoRA (Low-Rank Adaptation), k provedení doladění 'den nula'. Tento proces začíná přímo z kontrolních bodů modelu Gemma 4 dostupných na Hugging Face, čímž se eliminuje potřeba složitých konverzních kroků. Tato flexibilita umožňuje podnikům a výzkumníkům obohatit modely Gemma 4 o doménově specifické znalosti, zajišťující vysokou přesnost a relevanci pro specializované úkoly.

Modely Gemma 4 jsou snadno dostupné napříč celou AI platformou NVIDIA a jsou nabízeny pod komerčně přátelskou licencí Apache 2.0. Tato open-source licence usnadňuje široké přijetí a integraci do komerčních produktů a služeb, což vývojářům po celém světě umožňuje inovovat s nejmodernější AI. Od výkonu Blackwell po všudypřítomnost platforem Jetson, Gemma 4 je připravena přinést pokročilou AI blíže ke každému vývojáři a každému zařízení.

Často kladené dotazy

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Buďte v obraze

Dostávejte nejnovější AI zprávy do schránky.

Sdílet