Code Velocity
ИИ Модели

Gemma 4: Мащабиране на ИИ от центрове за данни до периферията с NVIDIA

·5 мин четене·NVIDIA·Оригинален източник
Сподели
Моделите Gemma 4 на NVIDIA, позволяващи ИИ на периферни устройства и в центрове за данни

title: "Gemma 4: Мащабиране на ИИ от центрове за данни до периферията с NVIDIA" slug: "bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4" date: "2026-04-05" lang: "bg" source: "https://developer.nvidia.com/blog/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4/" category: "ИИ Модели" keywords:

  • Gemma 4
  • NVIDIA
  • Периферен ИИ
  • ИИ на устройство
  • Мултимодален ИИ
  • LLMs
  • Разгръщане на ИИ
  • Blackwell
  • Jetson
  • RTX
  • vLLM
  • NeMo meta_description: "Разгледайте Gemma 4, мултимодални и многоезични ИИ модели на NVIDIA, проектирани за безпроблемно разгръщане от центрове за данни Blackwell до периферни устройства Jetson, захранващи сигурни приложения с ниска латентност." image: "/images/articles/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4.png" image_alt: "Моделите Gemma 4 на NVIDIA, позволяващи ИИ на периферни устройства и в центрове за данни" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Какво представлява Gemma 4 и какви са основните му подобрения за разгръщане на ИИ?" answer: "Gemma 4 представлява най-новото поколение мултимодални и многоезични ИИ модели от Google, проектирани за широко разгръщане в целия хардуерен спектър на NVIDIA, от мощни центрове за данни Blackwell до компактни периферни устройства Jetson. Ключовите му подобрения включват значително подобрена ефективност и точност, което го прави подходящ за разнообразни задачи като решаване на сложни проблеми, генериране на код и използване на агентни инструменти. Тези модели се отличават с богати мултимодални възможности, поддържайки преплетени текст и изображения, и са предварително обучени на над 140 езика. Тази гъвкавост и мащабируемост отговарят на нарастващото търсене на локални, сигурни, рентабилни и нисколатентни ИИ приложения, пренасяйки интелигентността по-близо до източника на данни и действия."
  • question: "Как Gemma 4 улеснява внедряването на ИИ на устройства и в периферни среди, и кои платформи на NVIDIA го поддържат?" answer: "Gemma 4 е специално оптимизиран да осигури стабилни внедрявания на ИИ на устройства и в периферни среди, което е от решаващо значение за приложения, изискващи ниска латентност, подобрена поверителност и намалени оперативни разходи. Изчерпателният набор от клиентски и периферни системи на NVIDIA – включително RTX GPUs, DGX Spark и устройства Jetson – осигурява необходимата гъвкавост и производителност. Например, платформите Jetson поддържат вариантите Gemma 4 E2B и E4B за мултимодално извеждане на вградени системи с ограничена мощност, докато RTX GPUs предлагат оптимизирана производителност за локално извеждане на настолни компютри. Сътрудничеството с vLLM, Ollama, llama.cpp и Unsloth осигурява ефективно локално разгръщане на тези разнообразни платформи, като дава възможност на разработчиците да интегрират усъвършенстван ИИ директно в своите приложения и устройства."
  • question: "Каква роля играят NVIDIA DGX Spark и NIM в разработването и разгръщането на модели Gemma 4 за предприятия?" answer: "NVIDIA DGX Spark предоставя мощна платформа за разработчици и ентусиасти на ИИ за прототипиране и изграждане на сигурни, агентни ИИ работни потоци с Gemma 4. С GB10 Grace Blackwell Superchips и 128 GB унифицирана памет, DGX Spark позволява ефективното изпълнение дори на най-големите модели Gemma 4 с BF16 тегла, поддържайки частно и сигурно изпълнение на устройството. Механизмът за извеждане vLLM на DGX Spark допълнително оптимизира обслужването на LLM за висока пропускателна способност. За внедряване в производство, NVIDIA NIM предлага предварително опаковани и оптимизирани микроуслуги, осигуряващи сигурно, самохоствано решение за предприятия с NVIDIA Enterprise License. Хостван NIM API също е наличен в каталога на NVIDIA API за първоначално прототипиране."
  • question: "Как разработчиците могат да фино настроят модели Gemma 4 за специфични домейнови данни и какви инструменти са налични?" answer: "Разработчиците могат да персонализират модели Gemma 4 със своите уникални домейнови данни, използвайки рамката NVIDIA NeMo, по-специално библиотеката NeMo Automodel. Този мощен инструмент комбинира лекотата на използване на нативен PyTorch с оптимизирана производителност, позволявайки ефективно фино настройване. Техники като контролирано фино настройване (SFT) и паметно-ефективна LoRA (Low-Rank Adaptation) могат да бъдат приложени директно към контролни точки на модели Gemma 4, налични в Hugging Face, елиминирайки необходимостта от тромави преобразувания. Това позволява фино настройване от нулата (day-zero fine-tuning), гарантирайки, че моделите са изключително релевантни и точни за специализирани приложения и набори от данни, подобрявайки тяхната полезност в различни индустриални вертикали."
  • question: "Какви са условията за търговско лицензиране на моделите Gemma 4 и доколко са достъпни за разработчиците?" answer: "Моделите Gemma 4 са направени изключително достъпни за разработчици и предприятия чрез комерсиално-приятелския лиценз Apache 2.0. Този отворен код лиценз позволява широко използване, модификация и разпространение на моделите, улеснявайки тяхната интеграция в различни търговски продукти и услуги без ограничителни лицензионни такси. Освен това, NVIDIA осигурява широка наличност в цялата си ИИ платформа, от центрове за данни Blackwell до периферни устройства Jetson. Разработчиците могат да започнат незабавно, като получат достъп до контролни точки на моделите в Hugging Face, използвайки обширната документация и уроци на NVIDIA, и използвайки инструменти като vLLM, Ollama и NeMo за разгръщане и персонализиране, което прави усъвършенсован ИИ лесно достъпен за иновации."

Пейзажът на изкуствения интелект се развива бързо, с нарастващо търсене за разгръщане на усъвършенствани ИИ модели не само в облачни центрове за данни, но и в самата периферия на мрежите и директно на потребителски устройства. Тази промяна е обусловена от необходимостта от по-ниска латентност, подобрена поверителност, намалени оперативни разходи и способност за работа в среди с ограничена свързаност. За да отговорят на тези критични изисквания, NVIDIA и Google си сътрудничиха за представянето на най-новите мултимодални и многоезични модели Gemma 4, проектирани да мащабират безпроблемно от най-мощните центрове за данни NVIDIA Blackwell до компактни периферни устройства Jetson.

Тези модели представляват значителен скок в ефективността и точността, което ги прави универсални инструменти за широк набор от често срещани ИИ задачи. Семейството Gemma 4 е на път да предефинира начина, по който ИИ се интегрира в ежедневните приложения, предлагайки възможности, които разширяват границите на възможното при локалното разгръщане на ИИ.

Gemma 4: Развиване на мултимодален и многоезичен ИИ

Gemmaverse се разшири с представянето на четири нови модела Gemma 4, всеки от които е проектиран с конкретни сценарии за разгръщане, като същевременно предлага стабилен набор от възможности. Тези модели не са само за размер; те са за интелигентен дизайн, осигуряващ висока производителност при различни ИИ предизвикателства.

Основните възможности на моделите Gemma 4 включват:

  • Разсъждение: Изключителна производителност при сложни задачи за решаване на проблеми, позволяваща по-сложно вземане на решения.
  • Кодиране: Разширени функции за генериране на код и отстраняване на грешки, рационализиращи работните процеси на разработчиците.
  • Агенти: Вградена поддръжка за използване на структурирани инструменти, улесняваща създаването на мощни агентни ИИ системи.
  • Възможности за визия, аудио и видео: Богати мултимодални взаимодействия за случаи на употреба като разпознаване на обекти, автоматично разпознаване на реч (ASR), интелигентност за документи и видео.
  • Вмъкнат мултимодален вход: Възможност за свободно смесване на текст и изображения в рамките на еднократна подкана, предлагайки по-естествено и изчерпателно взаимодействие.
  • Многоезична поддръжка: Готова поддръжка за над 35 езика, с предварително обучение на над 140 езика, разширяваща глобалната достъпност.

Семейството Gemma 4 включва първия модел Mixture-of-Experts (MoE) в серията Gemma, оптимизиран за ефективност. Забележително е, че и четирите модела могат да се поберат на един NVIDIA H100 GPU, демонстрирайки техния оптимизиран дизайн. Вариантите 31B и 26B A4B са високоефективни модели за разсъждение, подходящи както за локални, така и за центрове за данни, докато моделите E4B и E2B са специално адаптирани за приложения на устройства и мобилни приложения, надграждайки наследството на Gemma 3n.

Model NameArchitecture TypeTotal ParametersActive or Effective ParametersInput Context Length (Tokens)Sliding Window (Tokens)Modalities
Gemma-4-31BDense Transformer31B256K1024Text
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256KText
Gemma-4-E4BDense Transformer7.9B with embeddings4.5B effective128K512Text, Audio, Vision, Video
Gemma-4-E2BDense Transformer5.1B with embeddings2.3B effective128K512Text, Audio, Vision, Video

Таблица 1. Общ преглед на семейството модели Gemma 4, обобщаваща типовете архитектури, размерите на параметрите, ефективните параметри, поддържаните дължини на контекста и наличните модалности, за да помогне на разработчиците да изберат правилния модел за центрове за данни, периферия и внедряване на устройства.

Тези модели са достъпни в Hugging Face с контролни точки BF16. За разработчици, използващи NVIDIA Blackwell GPUs, е налична NVFP4 квантована контролна точка за Gemma-4-31B чрез NVIDIA Model Optimizer за използване с vLLM. Точността на NVFP4 поддържа почти идентична точност с 8-битовата прецизност, като същевременно значително подобрява производителността на ват и намалява разходите на токен, което е от решаващо значение за мащабни разгръщания.

Довеждане на ИИ до периферията: Разгръщане на устройство с хардуер на NVIDIA

Тъй като работните потоци и агентите на ИИ стават все по-неразделна част от ежедневните операции, възможността за изпълнение на тези модели извън традиционните среди на центрове за данни е от първостепенно значение. NVIDIA предлага цялостна екосистема от клиентски и периферни системи, от мощни графични процесори като RTX GPUs до специализирани устройства Jetson и DGX Spark, осигурявайки на разработчиците гъвкавостта, необходима за оптимизиране на разходите, латентността и сигурността.

NVIDIA си сътрудничи с водещи рамки за извеждане като vLLM, Ollama и llama.cpp, за да осигури оптимално изживяване при локално разгръщане за моделите Gemma 4. В допълнение, Unsloth предоставя поддръжка от първия ден с оптимизирани и квантовани модели, позволяващи ефективно локално разгръщане чрез Unsloth Studio. Тази стабилна система за поддръжка дава възможност на разработчиците да разгръщат усъвършенстван ИИ директно там, където е най-необходим.

DGX SparkJetsonRTX / RTX PRO
Случай на употребаИИ изследвания и прототипиранеПериферен ИИ и роботикаНастолни приложения и разработка за Windows
Ключови акцентиПредварително инсталиран софтуерен стек за ИИ на NVIDIA и 128 GB унифицирана памет захранват локалното прототипиране, фино настройване и изцяло локални работни потоци OpenClawПочти нулева латентност поради архитектурни характеристики като условно зареждане на параметри и вграждания на слой, които могат да бъдат кеширани за по-бързо и намалено използване на памет ( повече инфо)Оптимизирана производителност за локално извеждане за любители, създатели и професионалисти
Ръководство за започванеDGX Spark Playbooks за vLLM, Ollama, Unsloth и llama.cpp ръководства за разгръщане
NeMo Automodel за фино настройване на Spark
Jetson AI Lab за уроци и персонализирани Gemma контейнериRTX AI Garage за Ollama и llama.cpp ръководства. Собствениците на RTX Pro също могат да използват vLLM.

Таблица 2. Сравнение на опциите за локално разгръщане на платформи на NVIDIA, подчертаваща основните случаи на употреба, ключовите възможности и препоръчителните ресурси за стартиране за системи DGX Spark, Jetson и RTX / RTX PRO, работещи с модели Gemma 4.

Изграждане на сигурни агентни работни потоци и внедрявания, готови за предприятия

За разработчици и ентусиасти на ИИ, NVIDIA DGX Spark, включващ GB10 Grace Blackwell Superchip и 128 GB унифицирана памет, предлага несравними ресурси. Тази стабилна платформа е идеална за стартиране на модела Gemma 4 31B с BF16 тегла, позволявайки ефективно прототипиране и изграждане на сложни агентни работни потоци на ИИ, като същевременно осигурява частно и сигурно изпълнение на устройството. Операционната система DGX Linux и пълният софтуерен стек на NVIDIA осигуряват безпроблемна среда за разработка.

Механизмът за извеждане vLLM, проектиран за обслужване на LLM с висока пропускателна способност, увеличава максимално ефективността и минимизира използването на памет на DGX Spark. Тази комбинация осигурява високопроизводителна платформа за разгръщане на най-големите модели Gemma 4. Разработчиците могат да използват ръководството за vLLM за извеждане на DGX Spark или да започнат с Ollama или llama.cpp. Освен това, NeMo Automodel позволява фино настройване на тези модели директно на DGX Spark.

За корпоративни потребители, NVIDIA NIM предлага път към внедряване, готово за производство. Разработчиците могат да прототипират Gemma 4 31B, използвайки хостван от NVIDIA NIM API от каталога на NVIDIA API. За пълномащабно производство, предварително опаковани и оптимизирани NIM микроуслуги са достъпни за сигурно, самостоятелно хоствано внедряване, поддържано от NVIDIA Enterprise License. Това гарантира, че предприятията могат да внедряват мощни ИИ решения с увереност, отговаряйки на строги изисквания за сигурност и експлоатация.

Овластяване на физически ИИ агенти с NVIDIA Jetson

Възможностите на съвременните физически ИИ агенти бързо напредват, до голяма степен благодарение на моделите Gemma 4, интегриращи усъвършенствано аудио, мултимодално възприятие и дълбоко разсъждение. Тези усъвършенствани модели позволяват на роботните системи да надхвърлят опростеното изпълнение на задачи, давайки им възможността да разбират реч, да интерпретират визуален контекст и да разсъждават интелигентно, преди да действат.

На платформите NVIDIA Jetson, разработчиците могат да извършват извеждане на Gemma 4 на периферията, използвайки llama.cpp и vLLM. Jetson Orin Nano, например, поддържа вариантите Gemma 4 E2B и E4B, улеснявайки мултимодалното извеждане на малки, вградени системи с ограничена мощност. Тази възможност за мащабиране се разпростира в цялата платформа Jetson, до мощния Jetson Thor, което позволява постоянно разгръщане на модели, независимо от хардуерния отпечатък. Това е от решаващо значение за приложения в роботиката, интелигентните машини и индустриалната автоматизация, където нисколатентната производителност и интелигентността на устройството са от първостепенно значение. Разработчиците, които се интересуват от изследване на тези възможности, могат да намерят уроци и персонализирани Gemma контейнери в Jetson AI Lab.

Персонализиране и търговска достъпност с NVIDIA NeMo

За да се гарантира, че моделите Gemma 4 могат да бъдат адаптирани към специфични приложения и патентовани набори от данни, NVIDIA предлага стабилни възможности за фино настройване чрез рамката NVIDIA NeMo. Библиотеката NeMo Automodel, по-специално, комбинира лекотата на използване на нативен PyTorch с оптимизирана производителност, правейки процеса на персонализиране достъпен и ефективен.

Разработчиците могат да използват техники като контролирано фино настройване (SFT) и паметно-ефективна LoRA (Low-Rank Adaptation), за да извършат фино настройване от нулата (day-zero fine-tuning). Този процес започва директно от контролните точки на модели Gemma 4, налични в Hugging Face, елиминирайки необходимостта от тромави стъпки за преобразуване. Тази гъвкавост позволява на предприятията и изследователите да внедрят в моделите Gemma 4 специфични за домейна знания, осигурявайки висока точност и релевантност за специализирани задачи.

Моделите Gemma 4 са лесно достъпни в цялата ИИ платформа на NVIDIA и се предлагат под комерсиално-приятелския лиценз Apache 2.0. Този отворен код лиценз улеснява широкото приемане и интеграция в търговски продукти и услуги, давайки възможност на разработчиците по целия свят да иноватират с авангарден ИИ. От производителността на Blackwell до повсеместността на платформите Jetson, Gemma 4 е готов да доближи усъвършенствания ИИ до всеки разработчик и всяко устройство.

Често задавани въпроси

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели