A mesterséges intelligencia világa gyorsan fejlődik, és egyre nagyobb az igény a fejlett AI modellek telepítésére, nemcsak a felhőalapú adatközpontokban, hanem a hálózatok legszélén és közvetlenül a felhasználói eszközökön is. Ezt a változást az alacsonyabb késleltetés, a fokozott adatvédelem, a csökkentett működési költségek, valamint a korlátozott kapcsolódási lehetőségekkel rendelkező környezetekben való működés képessége vezérli. Ezeknek a kritikus követelményeknek megfelelően az NVIDIA és a Google együttműködve mutatták be a legújabb Gemma 4 multimodális és többnyelvű modelleket, amelyeket úgy terveztek, hogy zökkenőmentesen skálázódjanak a legerősebb NVIDIA Blackwell adatközpontoktól a kompakt Jetson edge eszközökig.
Ezek a modellek jelentős előrelépést jelentenek a hatékonyság és a pontosság terén, így sokoldalú eszközökké válnak a gyakori AI feladatok széles skálájához. A Gemma 4 család célja, hogy újradefiniálja az AI mindennapi alkalmazásokba való integrálásának módját, olyan képességeket kínálva, amelyek feszegetik a helyi AI telepítés lehetőségeinek határait.
Gemma 4: A multimodális és többnyelvű AI fejlesztése
A Gemmaverse négy új Gemma 4 modell bevezetésével bővült, amelyek mindegyikét specifikus telepítési forgatókönyveket szem előtt tartva tervezték, miközben robusztus képességeket kínálnak. Ezek a modellek nem csak a méretről szólnak; az intelligens tervezésről szólnak, erős teljesítményt nyújtva a különféle AI kihívásokban.
A Gemma 4 modellek alapvető képességei a következők:
- Érvelés: Kivételes teljesítmény komplex problémamegoldó feladatokban, ami kifinomultabb döntéshozatalt tesz lehetővé.
- Kódolás: Fejlett kódgenerálási és hibakeresési funkciók, amelyek egyszerűsítik a fejlesztői munkafolyamatokat.
- Ügynökök: Natív támogatás a strukturált eszközhasználathoz, megkönnyítve az erős ügynöki AI rendszerek létrehozását.
- Látás, hang és videó képesség: Gazdag multimodális interakciók olyan felhasználási esetekhez, mint az objektumfelismerés, az automatikus beszédfelismerés (ASR), a dokumentum- és videóintelligencia.
- Váltakozó multimodális bevitel: A szöveg és a képek szabad keverésének képessége egyetlen prompton belül, természetesebb és átfogóbb interakciót kínálva.
- Többnyelvű támogatás: A dobozból kivéve támogatás több mint 35 nyelvhez, előképzéssel több mint 140 nyelven, bővítve a globális hozzáférhetőséget.
A Gemma 4 család tartalmazza az első Mixture-of-Experts (MoE) modellt a Gemma sorozatban, amelyet a hatékonyságra optimalizáltak. Érdemes megjegyezni, hogy mind a négy modell elfér egyetlen NVIDIA H100 GPU-n, ami optimalizált tervezésüket bizonyítja. A 31B és 26B A4B variánsok nagy teljesítményű érvelő modellek, amelyek helyi és adatközponti környezetekben is használhatók, míg az E4B és E2B modellek kifejezetten eszközön futó és mobil alkalmazásokhoz készültek, a Gemma 3n örökségére építve.
| Model Name | Architecture Type | Total Parameters | Active or Effective Parameters | Input Context Length (Tokens) | Sliding Window (Tokens) | Modalities |
|---|---|---|---|---|---|---|
| Gemma-4-31B | Dense Transformer | 31B | — | 256K | 1024 | Text |
| Gemma-4-26B-A4B | MoE – 128 Experts | 26B | 3.8B | 256K | — | Text |
| Gemma-4-E4B | Dense Transformer | 7.9B with embeddings | 4.5B effective | 128K | 512 | Text, Audio, Vision, Video |
| Gemma-4-E2B | Dense Transformer | 5.1B with embeddings | 2.3B effective | 128K | 512 | Text, Audio, Vision, Video |
1. táblázat. A Gemma 4 modellcsalád áttekintése, összefoglalva az architektúratípusokat, paraméter méreteket, hatékony paramétereket, támogatott kontextushosszokat és elérhető modalitásokat, hogy segítsen a fejlesztőknek kiválasztani a megfelelő modellt az adatközponti, edge és eszközön futó telepítésekhez.
Ezek a modellek BF16 ellenőrzőpontokkal érhetők el a Hugging Face platformon. Az NVIDIA Blackwell GPU-kat használó fejlesztők számára a Gemma-4-31B NVFP4 kvantált ellenőrzőpontja elérhető az NVIDIA Model Optimizer segítségével a vLLM-mel való használathoz. Az NVFP4 precizitás közel azonos pontosságot tart fenn, mint a 8 bites precizitás, miközben jelentősen javítja a teljesítményt wattonként és csökkenti a tokkenenkénti költséget, ami kritikus a nagyszabású telepítésekhez.
AI eljuttatása az Edge-re: Eszközön futó telepítés NVIDIA hardverrel
Ahogy az AI munkafolyamatok és ügynökök egyre inkább a mindennapi műveletek szerves részévé válnak, alapvető fontosságúvá válik a modellek hagyományos adatközponti környezeteken kívüli futtatásának képessége. Az NVIDIA az ügyfél- és edge rendszerek átfogó ökoszisztémáját kínálja, a nagy teljesítményű gpus-októl, mint például az RTX GPU-k, a speciális Jetson eszközökig és a DGX Sparkig, biztosítva a fejlesztőknek a rugalmasságot, amely szükséges a költségek, a késleltetés és a biztonság optimalizálásához.
Az NVIDIA együttműködött vezető következtetési keretrendszerekkel, mint például a vLLM, Ollama és llama.cpp, hogy optimális helyi telepítési élményt biztosítson a Gemma 4 modellek számára. Ezenkívül az Unsloth "day-one" támogatást nyújt optimalizált és kvantált modellekkel, lehetővé téve a hatékony helyi telepítést az Unsloth Studio segítségével. Ez a robusztus támogatási rendszer feljogosítja a fejlesztőket arra, hogy kifinomult AI-t telepítsenek közvetlenül oda, ahol a legnagyobb szükség van rá.
| DGX Spark | Jetson | RTX / RTX PRO | |
|---|---|---|---|
| Use Case | AI kutatás és prototípusgyártás | Edge AI és robotika | Asztali alkalmazások és Windows fejlesztés |
| Key Highlights | Előre telepített NVIDIA AI szoftvercsomag és 128 GB egységes memória hajtja a helyi prototípusgyártást, finomhangolást és a teljesen helyi OpenClaw munkafolyamatokat | Közel nulla késleltetés az architektúra jellemzői miatt, mint például a feltételes paraméterbetöltés és a rétegenkénti beágyazások, amelyek gyorsabb és csökkentett memóriahasználat érdekében gyorsítótárazhatók ( további infó) | Optimalizált teljesítmény a helyi következtetéshez hobbi-felhasználók, alkotók és szakemberek számára |
| Getting Started Guide | DGX Spark Playbooks a vLLM, Ollama, Unsloth és llama.cpp telepítési útmutatókhoz NeMo Automodel a Sparkon történő finomhangolás útmutatójához | Jetson AI Lab oktatóanyagokhoz és egyéni Gemma konténerekhez | RTX AI Garage az Ollama és llama.cpp útmutatókhoz. Az RTX Pro tulajdonosok a vLLM-et is használhatják. |
2. táblázat. A helyi telepítési lehetőségek összehasonlítása az NVIDIA platformokon, kiemelve az elsődleges felhasználási eseteket, kulcsfontosságú képességeket és ajánlott kezdőforrásokat a DGX Spark, Jetson és RTX / RTX PRO rendszerek Gemma 4 modelleket futtatva.
Biztonságos ügynöki munkafolyamatok és vállalati szintű telepítések építése
Az AI fejlesztők és rajongók számára az NVIDIA DGX Spark, a GB10 Grace Blackwell Superchip-el és 128 GB egyesített memóriával, páratlan erőforrásokat kínál. Ez a robusztus platform ideális a Gemma 4 31B modell BF16 súlyokkal való futtatásához, lehetővé téve a komplex ügynöki AI munkafolyamatok hatékony prototípusgyártását és kiépítését, miközben biztosítja a privát és biztonságos eszközön futó végrehajtást. A DGX Linux OS és a teljes NVIDIA szoftvercsomag zökkenőmentes fejlesztési környezetet biztosít.
A vLLM következtető motor, amelyet nagy átviteli sebességű LLM kiszolgálásra terveztek, maximalizálja a hatékonyságot és minimalizálja a memóriahasználatot a DGX Sparkon. Ez a kombináció nagy teljesítményű platformot biztosít a legnagyobb Gemma 4 modellek telepítéséhez. A fejlesztők használhatják a vLLM for Inference DGX Spark playbookot, vagy elkezdhetik az Ollama vagy llama.cpp-vel. Ezenkívül a NeMo Automodel lehetővé teszi ezen modellek finomhangolását közvetlenül a DGX Sparkon.
Vállalati felhasználók számára az NVIDIA NIM utat kínál a gyártásra kész telepítésekhez. A fejlesztők prototípusokat készíthetnek a Gemma 4 31B modellről az NVIDIA által hostolt NIM API használatával az NVIDIA API katalógusból. Teljes körű gyártáshoz előre csomagolt és optimalizált NIM mikroszolgáltatások állnak rendelkezésre biztonságos, saját üzemeltetésű telepítéshez, amelyet NVIDIA Enterprise License támogat. Ez biztosítja, hogy a vállalatok magabiztosan telepíthessenek nagy teljesítményű AI megoldásokat, megfelelve a szigorú biztonsági és működési követelményeknek.
Fizikai AI ügynökök felruházása az NVIDIA Jetsonnal
A modern fizikai AI ügynökök képességei gyorsan fejlődnek, nagyrészt annak köszönhetően, hogy a Gemma 4 modellek kifinomult hang-, multimodális érzékelést és mély érvelést integrálnak. Ezek a fejlett modellek lehetővé teszik a robotikai rendszerek számára, hogy túllépjenek az egyszerű feladatvégrehajtáson, képessé téve őket a beszéd megértésére, a vizuális kontextus értelmezésére és az intelligens érvelésre cselekvés előtt.
Az NVIDIA Jetson platformokon a fejlesztők Gemma 4 következtetést végezhetnek az edge-en a llama.cpp és a vLLM segítségével. A Jetson Orin Nano például támogatja a Gemma 4 E2B és E4B variánsokat, lehetővé téve a multimodális következtetést kis, beágyazott és korlátozott energiafogyasztású rendszereken. Ez a skálázhatóság kiterjed az egész Jetson platformra, egészen a hatalmas Jetson Thorig, lehetővé téve a következetes modelltelepítést a hardver lábnyomától függetlenül. Ez kulcsfontosságú a robotika, az okos gépek és az ipari automatizálás területén, ahol az alacsony késleltetésű teljesítmény és az eszközön belüli intelligencia alapvető fontosságú. Azok a fejlesztők, akik ezeket a képességeket szeretnék felfedezni, oktatóanyagokat és egyéni Gemma konténereket találhatnak a Jetson AI Lab oldalon.
Testreszabás és kereskedelmi hozzáférhetőség az NVIDIA NeMo segítségével
Annak biztosítására, hogy a Gemma 4 modellek testreszabhatók legyenek speciális alkalmazásokhoz és szabadalmaztatott adatkészletekhez, az NVIDIA robusztus finomhangolási képességeket kínál az NVIDIA NeMo keretrendszer révén. A NeMo Automodel könyvtár különösen a natív PyTorch könnyű használatát optimalizált teljesítménnyel kombinálja, így a testreszabási folyamat hozzáférhetővé és hatékonysá teszi.
A fejlesztők olyan technikákat használhatnak, mint a felügyelt finomhangolás (SFT) és a memória-hatékony LoRA (Low-Rank Adaptation) a "day-zero" finomhangolás elvégzéséhez. Ez a folyamat közvetlenül a Hugging Face oldalon elérhető Gemma 4 modell ellenőrzőpontokból indul, kiküszöbölve a körülményes konverziós lépések szükségességét. Ez a rugalmasság lehetővé teszi a vállalatok és kutatók számára, hogy domain-specifikus tudással ruházzák fel a Gemma 4 modelleket, biztosítva a nagy pontosságot és relevanciát a speciális feladatokhoz.
A Gemma 4 modellek széles körben elérhetők a teljes NVIDIA AI platformon, és kereskedelmi célokra is alkalmas Apache 2.0 licenc alatt kínálják. Ez a nyílt forráskódú licenc széles körű elfogadást és integrációt tesz lehetővé kereskedelmi termékekbe és szolgáltatásokba, feljogosítva a fejlesztőket világszerte az innovációra a legmodernebb AI segítségével. A Blackwell teljesítményétől a Jetson platformok elterjedtségéig a Gemma 4 arra hivatott, hogy a fejlett AI-t közelebb hozza minden fejlesztőhöz és minden eszközhöz.
Eredeti forrás
https://developer.nvidia.com/blog/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4/Gyakran ismételt kérdések
What is Gemma 4 and what are its key advancements for AI deployment?
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Maradjon naprakész
Kapja meg a legfrissebb AI híreket e-mailben.
