Code Velocity
Модели на вештачка интелигенција

Gemma 4: Скалирање на вештачката интелигенција од центар за податоци до периферија со NVIDIA

·5 мин читање·NVIDIA·Оригинален извор
Сподели
NVIDIA Gemma 4 модели кои овозможуваат вештачка интелигенција на периферни уреди и центри за податоци

Пејзажот на вештачката интелигенција брзо се развива, со растечка побарувачка за имплементација на напредни AI модели не само во облак центрите за податоци, туку и на самата периферија на мрежите и директно на уредите на корисниците. Оваа промена е поттикната од потребата за помала латентност, подобрена приватност, намалени оперативни трошоци и способност за работа во средини со ограничена поврзаност. Адресирајќи ги овие критични барања, NVIDIA и Google соработуваа за да ги претстават најновите Gemma 4 мултимодални и повеќејазични модели, конструирани да се скалираат беспрекорно од најмоќните NVIDIA Blackwell центри за податоци до компактни Jetson периферни уреди.

Овие модели претставуваат значителен скок во ефикасноста и точноста, правејќи ги разноврсни алатки за широк спектар на вообичаени AI задачи. Семејството Gemma 4 е подготвено да го редефинира начинот на кој AI се интегрира во секојдневните апликации, нудејќи можности кои ги поместуваат границите на она што е возможно во локалната имплементација на AI.

Gemma 4: Унапредување на мултимодална и повеќејазична вештачка интелигенција

Gemma универзумот се прошири со воведувањето на четири нови Gemma 4 модели, секој дизајниран со специфични сценарија за имплементација, додека нуди робустен сет на можности. Овие модели не се само за големина; тие се за интелигентен дизајн, испорачувајќи силни перформанси низ различни AI предизвици.

Основните можности на Gemma 4 моделите вклучуваат:

  • Расудување: Исклучителни перформанси при решавање сложени проблеми, овозможувајќи пософистицирано донесување одлуки.
  • Кодирање: Напредни функции за генерирање код и отстранување грешки, поедноставувајќи ги работните текови на програмерите.
  • Агенти: Матична поддршка за структурирана употреба на алатки, олеснувајќи го создавањето на моќни агентички AI системи.
  • Способност за вид, аудио и видео: Богати мултимодални интеракции за случаи на употреба како препознавање објекти, автоматско препознавање говор (ASR), интелигенција на документи и видео.
  • Испреплетен мултимодален влез: Способност за слободно мешање текст и слики во еден поим, нудејќи поприродна и сеопфатна интеракција.
  • Повеќејазична поддршка: Поддршка надвор од кутија за над 35 јазици, со претходно тренирање на повеќе од 140 јазици, проширувајќи ја глобалната достапност.

Семејството Gemma 4 го вклучува првиот модел Mixture-of-Experts (MoE) во серијата Gemma, оптимизиран за ефикасност. Забележително е дека сите четири модели може да се вклопат на еден NVIDIA H100 графички процесор, демонстрирајќи го нивниот оптимизиран дизајн. Варијантите 31B и 26B A4B се модели за расудување со високи перформанси, погодни за локални средини и средини на центри за податоци, додека моделите E4B и E2B се специјално прилагодени за апликации на уреди и мобилни уреди, надоградувајќи се на наследството на Gemma 3n.

Име на моделТип на архитектураВкупни параметриАктивни или ефективни параметриДолжина на влезен контекст (токени)Лизгачки прозорец (токени)Модалности
Gemma-4-31BDense Transformer31B256K1024Текст
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256KТекст
Gemma-4-E4BDense Transformer7.9B with embeddings4.5B effective128K512Текст, Аудио, Вид, Видео
Gemma-4-E2BDense Transformer5.1B with embeddings2.3B effective128K512Текст, Аудио, Вид, Видео

Табела 1. Преглед на семејството модели Gemma 4, сумирајќи ги типовите архитектури, големините на параметрите, ефективните параметри, поддржаните должини на контекст и достапните модалности за да им помогне на програмерите да го изберат вистинскиот модел за имплементации во центри за податоци, на периферија и на уреди.

Овие модели се достапни на Hugging Face со BF16 контролни точки. За програмерите кои ги користат NVIDIA Blackwell графичките процесори, NVFP4 квантизирана контролна точка за Gemma-4-31B е достапна преку NVIDIA Model Optimizer за употреба со vLLM. NVFP4 прецизноста одржува речиси идентична точност со 8-битна прецизност, додека значително ги подобрува перформансите по ват и ги намалува трошоците по токен, што е критично за големи имплементации.

Донесување на вештачката интелигенција до периферијата: Имплементација на уреди со NVIDIA хардвер

Како што AI работните текови и агентите стануваат сè поинтегрален дел од секојдневните операции, способноста за извршување на овие модели надвор од традиционалните средини на центри за податоци е најважна. NVIDIA нуди сеопфатен екосистем на клиентски и периферни системи, од моќни графички процесори како RTX графички процесори до специјализирани Jetson уреди и DGX Spark, обезбедувајќи им на програмерите флексибилност потребна за оптимизација за цена, латентност и безбедност.

NVIDIA соработуваше со водечките рамки за инференција како vLLM, Ollama и llama.cpp за да обезбеди оптимално локално искуство за имплементација на Gemma 4 моделите. Дополнително, Unsloth обезбедува поддршка од 'ден нула' со оптимизирани и квантизирани модели, овозможувајќи ефикасна локална имплементација преку Unsloth Studio. Овој робустен систем за поддршка им овозможува на програмерите да имплементираат софистицирана AI директно таму каде што е најпотребна.

DGX SparkJetsonRTX / RTX PRO
Случај на употребаИстражување и прототипирање на AIAI на периферија и роботикаДесктоп апликации и развој за Windows
Клучни карактеристикиПреинсталиран NVIDIA AI софтверски стек и 128 GB унифицирана меморија овозможуваат локално прототипирање, дотерување и целосно локални OpenClaw работни тековиРечиси нулта латентност поради архитектонски карактеристики како условно вчитување параметри и вградувања по слој кои може да се кешираат за побрза и намалена употреба на меморија ( повеќе информации)Оптимизирани перформанси за локална инференција за хобисти, креатори и професионалци
Водич за почетокDGX Spark Playbooks за vLLM, Ollama, Unsloth и llama.cpp водичи за имплементација
NeMo Automodel за водич за дотерување на Spark
Jetson AI Lab за упатства и прилагодени Gemma контејнериRTX AI Garage за Ollama и llama.cpp водичи. Сопствениците на RTX Pro исто така можат да користат vLLM.

Табела 2. Споредба на опциите за локална имплементација низ NVIDIA платформите, истакнувајќи ги примарните случаи на употреба, клучните можности и препорачаните ресурси за почеток за DGX Spark, Jetson и RTX / RTX PRO системи кои работат со Gemma 4 модели.

Градење безбедни агентички работни текови и имплементации подготвени за претпријатија

За AI програмерите и ентузијастите, NVIDIA DGX Spark, со GB10 Grace Blackwell Superchip и 128 GB унифицирана меморија, нуди неспоредливи ресурси. Оваа робусна платформа е идеална за извршување на Gemma 4 31B моделот со BF16 тежини, овозможувајќи ефикасно прототипирање и градење сложени агентички AI работни текови додека се обезбедува приватно и безбедно извршување на уредот. DGX Linux OS и целосниот софтверски стек на NVIDIA обезбедуваат беспрекорна развојна средина.

Моторот за инференција vLLM, дизајниран за сервирање LLM со висока пропусност, ја максимизира ефикасноста и ја минимизира употребата на меморија на DGX Spark. Оваа комбинација обезбедува платформа со високи перформанси за имплементација на најголемите Gemma 4 модели. Програмерите можат да го искористат vLLM за Inference DGX Spark прирачник или да започнат со Ollama или llama.cpp. Понатаму, NeMo Automodel овозможува дотерување на овие модели директно на DGX Spark.

За корпоративните корисници, NVIDIA NIM нуди пат до имплементација подготвена за производство. Програмерите можат да прототипираат Gemma 4 31B користејќи NVIDIA-хостиран NIM API од каталогот на NVIDIA API. За целосно производство, достапни се претходно спакувани и оптимизирани NIM микросервиси за безбедна, самостојна имплементација, поддржана од NVIDIA Enterprise License. Ова гарантира дека претпријатијата можат да имплементираат моќни AI решенија со доверба, исполнувајќи ги строгите безбедносни и оперативни барања.

Овозможување физички AI агенти со NVIDIA Jetson

Способностите на модерните физички AI агенти брзо напредуваат, во голема мера поради Gemma 4 моделите кои интегрираат софистицирано аудио, мултимодална перцепција и длабоко расудување. Овие напредни модели им овозможуваат на роботските системи да надминат едноставно извршување задачи, давајќи им способност да разбираат говор, да толкуваат визуелен контекст и интелигентно да расудуваат пред да дејствуваат.

На NVIDIA Jetson платформите, програмерите можат да вршат Gemma 4 инференција на периферијата користејќи llama.cpp и vLLM. Jetson Orin Nano, на пример, ги поддржува Gemma 4 E2B и E4B варијантите, олеснувајќи ја мултимодалната инференција на мали, вградени системи со ограничена моќност. Оваа способност за скалирање се протега низ целата Jetson платформа, до моќниот Jetson Thor, овозможувајќи доследна имплементација на моделот без оглед на хардверскиот отпечаток. Ова е клучно за апликации во роботиката, паметните машини и индустриската автоматизација каде што перформансите со мала латентност и интелигенцијата на уредот се најважни. Програмерите заинтересирани да ги истражат овие можности можат да најдат упатства и прилагодени Gemma контејнери на Jetson AI Lab.

Прилагодување и комерцијална достапност со NVIDIA NeMo

За да се осигура дека Gemma 4 моделите можат да се прилагодат на специфични апликации и сопствени множества податоци, NVIDIA нуди робусни можности за дотерување преку NVIDIA NeMo рамката. Библиотеката NeMo Automodel, особено, ја комбинира леснотијата на користење на матичниот PyTorch со оптимизирани перформанси, правејќи го процесот на прилагодување достапен и ефикасен.

Програмерите можат да ги искористат техниките како надгледувано дотерување (SFT) и мемориски ефикасна LoRA (Low-Rank Adaptation) за да извршат дотерување од 'ден нула'. Овој процес започнува директно од контролните точки на Gemma 4 моделот достапни на Hugging Face, елиминирајќи ја потребата за комплицирани чекори за конверзија. Оваа флексибилност им овозможува на претпријатијата и истражувачите да ги опремат Gemma 4 моделите со знаење специфично за домен, обезбедувајќи висока точност и релевантност за специјализирани задачи.

Gemma 4 моделите се лесно достапни низ целата NVIDIA AI платформа и се нудат под комерцијално прифатливата Apache 2.0 лиценца. Оваа open-source лиценца овозможува широко прифаќање и интеграција во комерцијални производи и услуги, овозможувајќи им на програмерите ширум светот да иновираат со најсовремена AI. Од перформансите на Blackwell до сеприсутноста на Jetson платформите, Gemma 4 е поставена да ја донесе напредната AI поблиску до секој програмер и секој уред.

Често поставувани прашања

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели