Code Velocity
AI Modellek

Gemma 4: Az AI méretezése adatközponttól az Edge-ig az NVIDIA segítségével

·5 perc olvasás·NVIDIA·Eredeti forrás
Megosztás
NVIDIA Gemma 4 modellek, amelyek lehetővé teszik az AI-t edge eszközökön és adatközpontokban

A mesterséges intelligencia világa gyorsan fejlődik, és egyre nagyobb az igény a fejlett AI modellek telepítésére, nemcsak a felhőalapú adatközpontokban, hanem a hálózatok legszélén és közvetlenül a felhasználói eszközökön is. Ezt a változást az alacsonyabb késleltetés, a fokozott adatvédelem, a csökkentett működési költségek, valamint a korlátozott kapcsolódási lehetőségekkel rendelkező környezetekben való működés képessége vezérli. Ezeknek a kritikus követelményeknek megfelelően az NVIDIA és a Google együttműködve mutatták be a legújabb Gemma 4 multimodális és többnyelvű modelleket, amelyeket úgy terveztek, hogy zökkenőmentesen skálázódjanak a legerősebb NVIDIA Blackwell adatközpontoktól a kompakt Jetson edge eszközökig.

Ezek a modellek jelentős előrelépést jelentenek a hatékonyság és a pontosság terén, így sokoldalú eszközökké válnak a gyakori AI feladatok széles skálájához. A Gemma 4 család célja, hogy újradefiniálja az AI mindennapi alkalmazásokba való integrálásának módját, olyan képességeket kínálva, amelyek feszegetik a helyi AI telepítés lehetőségeinek határait.

Gemma 4: A multimodális és többnyelvű AI fejlesztése

A Gemmaverse négy új Gemma 4 modell bevezetésével bővült, amelyek mindegyikét specifikus telepítési forgatókönyveket szem előtt tartva tervezték, miközben robusztus képességeket kínálnak. Ezek a modellek nem csak a méretről szólnak; az intelligens tervezésről szólnak, erős teljesítményt nyújtva a különféle AI kihívásokban.

A Gemma 4 modellek alapvető képességei a következők:

  • Érvelés: Kivételes teljesítmény komplex problémamegoldó feladatokban, ami kifinomultabb döntéshozatalt tesz lehetővé.
  • Kódolás: Fejlett kódgenerálási és hibakeresési funkciók, amelyek egyszerűsítik a fejlesztői munkafolyamatokat.
  • Ügynökök: Natív támogatás a strukturált eszközhasználathoz, megkönnyítve az erős ügynöki AI rendszerek létrehozását.
  • Látás, hang és videó képesség: Gazdag multimodális interakciók olyan felhasználási esetekhez, mint az objektumfelismerés, az automatikus beszédfelismerés (ASR), a dokumentum- és videóintelligencia.
  • Váltakozó multimodális bevitel: A szöveg és a képek szabad keverésének képessége egyetlen prompton belül, természetesebb és átfogóbb interakciót kínálva.
  • Többnyelvű támogatás: A dobozból kivéve támogatás több mint 35 nyelvhez, előképzéssel több mint 140 nyelven, bővítve a globális hozzáférhetőséget.

A Gemma 4 család tartalmazza az első Mixture-of-Experts (MoE) modellt a Gemma sorozatban, amelyet a hatékonyságra optimalizáltak. Érdemes megjegyezni, hogy mind a négy modell elfér egyetlen NVIDIA H100 GPU-n, ami optimalizált tervezésüket bizonyítja. A 31B és 26B A4B variánsok nagy teljesítményű érvelő modellek, amelyek helyi és adatközponti környezetekben is használhatók, míg az E4B és E2B modellek kifejezetten eszközön futó és mobil alkalmazásokhoz készültek, a Gemma 3n örökségére építve.

Model NameArchitecture TypeTotal ParametersActive or Effective ParametersInput Context Length (Tokens)Sliding Window (Tokens)Modalities
Gemma-4-31BDense Transformer31B256K1024Text
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256KText
Gemma-4-E4BDense Transformer7.9B with embeddings4.5B effective128K512Text, Audio, Vision, Video
Gemma-4-E2BDense Transformer5.1B with embeddings2.3B effective128K512Text, Audio, Vision, Video

1. táblázat. A Gemma 4 modellcsalád áttekintése, összefoglalva az architektúratípusokat, paraméter méreteket, hatékony paramétereket, támogatott kontextushosszokat és elérhető modalitásokat, hogy segítsen a fejlesztőknek kiválasztani a megfelelő modellt az adatközponti, edge és eszközön futó telepítésekhez.

Ezek a modellek BF16 ellenőrzőpontokkal érhetők el a Hugging Face platformon. Az NVIDIA Blackwell GPU-kat használó fejlesztők számára a Gemma-4-31B NVFP4 kvantált ellenőrzőpontja elérhető az NVIDIA Model Optimizer segítségével a vLLM-mel való használathoz. Az NVFP4 precizitás közel azonos pontosságot tart fenn, mint a 8 bites precizitás, miközben jelentősen javítja a teljesítményt wattonként és csökkenti a tokkenenkénti költséget, ami kritikus a nagyszabású telepítésekhez.

AI eljuttatása az Edge-re: Eszközön futó telepítés NVIDIA hardverrel

Ahogy az AI munkafolyamatok és ügynökök egyre inkább a mindennapi műveletek szerves részévé válnak, alapvető fontosságúvá válik a modellek hagyományos adatközponti környezeteken kívüli futtatásának képessége. Az NVIDIA az ügyfél- és edge rendszerek átfogó ökoszisztémáját kínálja, a nagy teljesítményű gpus-októl, mint például az RTX GPU-k, a speciális Jetson eszközökig és a DGX Sparkig, biztosítva a fejlesztőknek a rugalmasságot, amely szükséges a költségek, a késleltetés és a biztonság optimalizálásához.

Az NVIDIA együttműködött vezető következtetési keretrendszerekkel, mint például a vLLM, Ollama és llama.cpp, hogy optimális helyi telepítési élményt biztosítson a Gemma 4 modellek számára. Ezenkívül az Unsloth "day-one" támogatást nyújt optimalizált és kvantált modellekkel, lehetővé téve a hatékony helyi telepítést az Unsloth Studio segítségével. Ez a robusztus támogatási rendszer feljogosítja a fejlesztőket arra, hogy kifinomult AI-t telepítsenek közvetlenül oda, ahol a legnagyobb szükség van rá.

DGX SparkJetsonRTX / RTX PRO
Use CaseAI kutatás és prototípusgyártásEdge AI és robotikaAsztali alkalmazások és Windows fejlesztés
Key HighlightsElőre telepített NVIDIA AI szoftvercsomag és 128 GB egységes memória hajtja a helyi prototípusgyártást, finomhangolást és a teljesen helyi OpenClaw munkafolyamatokatKözel nulla késleltetés az architektúra jellemzői miatt, mint például a feltételes paraméterbetöltés és a rétegenkénti beágyazások, amelyek gyorsabb és csökkentett memóriahasználat érdekében gyorsítótárazhatók ( további infó)Optimalizált teljesítmény a helyi következtetéshez hobbi-felhasználók, alkotók és szakemberek számára
Getting Started GuideDGX Spark Playbooks a vLLM, Ollama, Unsloth és llama.cpp telepítési útmutatókhoz
NeMo Automodel a Sparkon történő finomhangolás útmutatójához
Jetson AI Lab oktatóanyagokhoz és egyéni Gemma konténerekhezRTX AI Garage az Ollama és llama.cpp útmutatókhoz. Az RTX Pro tulajdonosok a vLLM-et is használhatják.

2. táblázat. A helyi telepítési lehetőségek összehasonlítása az NVIDIA platformokon, kiemelve az elsődleges felhasználási eseteket, kulcsfontosságú képességeket és ajánlott kezdőforrásokat a DGX Spark, Jetson és RTX / RTX PRO rendszerek Gemma 4 modelleket futtatva.

Biztonságos ügynöki munkafolyamatok és vállalati szintű telepítések építése

Az AI fejlesztők és rajongók számára az NVIDIA DGX Spark, a GB10 Grace Blackwell Superchip-el és 128 GB egyesített memóriával, páratlan erőforrásokat kínál. Ez a robusztus platform ideális a Gemma 4 31B modell BF16 súlyokkal való futtatásához, lehetővé téve a komplex ügynöki AI munkafolyamatok hatékony prototípusgyártását és kiépítését, miközben biztosítja a privát és biztonságos eszközön futó végrehajtást. A DGX Linux OS és a teljes NVIDIA szoftvercsomag zökkenőmentes fejlesztési környezetet biztosít.

A vLLM következtető motor, amelyet nagy átviteli sebességű LLM kiszolgálásra terveztek, maximalizálja a hatékonyságot és minimalizálja a memóriahasználatot a DGX Sparkon. Ez a kombináció nagy teljesítményű platformot biztosít a legnagyobb Gemma 4 modellek telepítéséhez. A fejlesztők használhatják a vLLM for Inference DGX Spark playbookot, vagy elkezdhetik az Ollama vagy llama.cpp-vel. Ezenkívül a NeMo Automodel lehetővé teszi ezen modellek finomhangolását közvetlenül a DGX Sparkon.

Vállalati felhasználók számára az NVIDIA NIM utat kínál a gyártásra kész telepítésekhez. A fejlesztők prototípusokat készíthetnek a Gemma 4 31B modellről az NVIDIA által hostolt NIM API használatával az NVIDIA API katalógusból. Teljes körű gyártáshoz előre csomagolt és optimalizált NIM mikroszolgáltatások állnak rendelkezésre biztonságos, saját üzemeltetésű telepítéshez, amelyet NVIDIA Enterprise License támogat. Ez biztosítja, hogy a vállalatok magabiztosan telepíthessenek nagy teljesítményű AI megoldásokat, megfelelve a szigorú biztonsági és működési követelményeknek.

Fizikai AI ügynökök felruházása az NVIDIA Jetsonnal

A modern fizikai AI ügynökök képességei gyorsan fejlődnek, nagyrészt annak köszönhetően, hogy a Gemma 4 modellek kifinomult hang-, multimodális érzékelést és mély érvelést integrálnak. Ezek a fejlett modellek lehetővé teszik a robotikai rendszerek számára, hogy túllépjenek az egyszerű feladatvégrehajtáson, képessé téve őket a beszéd megértésére, a vizuális kontextus értelmezésére és az intelligens érvelésre cselekvés előtt.

Az NVIDIA Jetson platformokon a fejlesztők Gemma 4 következtetést végezhetnek az edge-en a llama.cpp és a vLLM segítségével. A Jetson Orin Nano például támogatja a Gemma 4 E2B és E4B variánsokat, lehetővé téve a multimodális következtetést kis, beágyazott és korlátozott energiafogyasztású rendszereken. Ez a skálázhatóság kiterjed az egész Jetson platformra, egészen a hatalmas Jetson Thorig, lehetővé téve a következetes modelltelepítést a hardver lábnyomától függetlenül. Ez kulcsfontosságú a robotika, az okos gépek és az ipari automatizálás területén, ahol az alacsony késleltetésű teljesítmény és az eszközön belüli intelligencia alapvető fontosságú. Azok a fejlesztők, akik ezeket a képességeket szeretnék felfedezni, oktatóanyagokat és egyéni Gemma konténereket találhatnak a Jetson AI Lab oldalon.

Testreszabás és kereskedelmi hozzáférhetőség az NVIDIA NeMo segítségével

Annak biztosítására, hogy a Gemma 4 modellek testreszabhatók legyenek speciális alkalmazásokhoz és szabadalmaztatott adatkészletekhez, az NVIDIA robusztus finomhangolási képességeket kínál az NVIDIA NeMo keretrendszer révén. A NeMo Automodel könyvtár különösen a natív PyTorch könnyű használatát optimalizált teljesítménnyel kombinálja, így a testreszabási folyamat hozzáférhetővé és hatékonysá teszi.

A fejlesztők olyan technikákat használhatnak, mint a felügyelt finomhangolás (SFT) és a memória-hatékony LoRA (Low-Rank Adaptation) a "day-zero" finomhangolás elvégzéséhez. Ez a folyamat közvetlenül a Hugging Face oldalon elérhető Gemma 4 modell ellenőrzőpontokból indul, kiküszöbölve a körülményes konverziós lépések szükségességét. Ez a rugalmasság lehetővé teszi a vállalatok és kutatók számára, hogy domain-specifikus tudással ruházzák fel a Gemma 4 modelleket, biztosítva a nagy pontosságot és relevanciát a speciális feladatokhoz.

A Gemma 4 modellek széles körben elérhetők a teljes NVIDIA AI platformon, és kereskedelmi célokra is alkalmas Apache 2.0 licenc alatt kínálják. Ez a nyílt forráskódú licenc széles körű elfogadást és integrációt tesz lehetővé kereskedelmi termékekbe és szolgáltatásokba, feljogosítva a fejlesztőket világszerte az innovációra a legmodernebb AI segítségével. A Blackwell teljesítményétől a Jetson platformok elterjedtségéig a Gemma 4 arra hivatott, hogy a fejlett AI-t közelebb hozza minden fejlesztőhöz és minden eszközhöz.

Gyakran ismételt kérdések

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Maradjon naprakész

Kapja meg a legfrissebb AI híreket e-mailben.

Megosztás