Code Velocity
Модели ИИ

Gemma 4: Масштабирование ИИ от центра обработки данных до периферии с NVIDIA

·5 мин чтения·NVIDIA·Первоисточник
Поделиться
Модели NVIDIA Gemma 4, обеспечивающие работу ИИ на периферийных устройствах и в центрах обработки данных

Ландшафт искусственного интеллекта стремительно развивается, с растущим спросом на развертывание передовых моделей ИИ не только в облачных центрах обработки данных, но и на самой периферии сетей и непосредственно на пользовательских устройствах. Этот сдвиг обусловлен необходимостью снижения задержек, повышения конфиденциальности, сокращения эксплуатационных расходов и способности работать в средах с ограниченными возможностями подключения. Отвечая этим критически важным требованиям, NVIDIA и Google в сотрудничестве представили новейшие мультимодальные и многоязычные модели Gemma 4, разработанные для бесшовного масштабирования от самых мощных центров обработки данных NVIDIA Blackwell до компактных периферийных устройств Jetson.

Эти модели представляют собой значительный прорыв в эффективности и точности, что делает их универсальными инструментами для широкого спектра распространенных задач ИИ. Семейство Gemma 4 призвано переосмыслить то, как ИИ интегрируется в повседневные приложения, предлагая возможности, которые расширяют границы возможного в локальном развертывании ИИ.

Gemma 4: Развитие мультимодального и многоязычного ИИ

Вселенная Gemma расширилась с появлением четырех новых моделей Gemma 4, каждая из которых разработана с учетом конкретных сценариев развертывания, предлагая при этом надежный набор возможностей. Эти модели — это не просто размер; это интеллектуальный дизайн, обеспечивающий высокую производительность в решении различных задач ИИ.

Основные возможности моделей Gemma 4 включают:

  • Рассуждение: Исключительная производительность в решении сложных задач, позволяющая принимать более изощренные решения.
  • Кодирование: Расширенные функции генерации кода и отладки, оптимизирующие рабочие процессы разработчиков.
  • Агенты: Встроенная поддержка структурированного использования инструментов, облегчающая создание мощных агентных систем ИИ.
  • Возможности зрения, аудио и видео: Богатые мультимодальные взаимодействия для таких сценариев использования, как распознавание объектов, автоматическое распознавание речи (ASR), интеллектуальная обработка документов и видео.
  • Чередующийся мультимодальный ввод: Возможность свободно смешивать текст и изображения в одном запросе, предлагая более естественное и всестороннее взаимодействие.
  • Многоязыковая поддержка: Поддержка более 35 языков "из коробки", с предварительным обучением на более чем 140 языках, расширяющая глобальную доступность.

Семейство Gemma 4 включает первую модель "смеси экспертов" (MoE) в серии Gemma, оптимизированную для эффективности. Примечательно, что все четыре модели могут уместиться на одном графическом процессоре NVIDIA H100, что демонстрирует их оптимизированный дизайн. Варианты 31B и 26B A4B представляют собой высокопроизводительные модели рассуждения, подходящие как для локальных сред, так и для центров обработки данных, в то время как модели E4B и E2B специально адаптированы для приложений на устройствах и мобильных платформах, развивая наследие Gemma 3n.

Название моделиТип архитектурыОбщее количество параметровАктивные или эффективные параметрыДлина входного контекста (токены)Скользящее окно (токены)Модальности
Gemma-4-31BПлотный трансформер31B256K1024Текст
Gemma-4-26B-A4BMoE – 128 экспертов26B3.8B256KТекст
Gemma-4-E4BПлотный трансформер7.9B с эмбеддингами4.5B эффективных128K512Текст, Аудио, Зрение, Видео
Gemma-4-E2BПлотный трансформер5.1B с эмбеддингами2.3B эффективных128K512Текст, Аудио, Зрение, Видео

Таблица 1. Обзор семейства моделей Gemma 4, суммирующий типы архитектур, размеры параметров, эффективные параметры, поддерживаемые длины контекста и доступные модальности, чтобы помочь разработчикам выбрать правильную модель для развертывания в центре обработки данных, на периферии и на устройствах.

Эти модели доступны на Hugging Face с контрольными точками BF16. Для разработчиков, использующих графические процессоры NVIDIA Blackwell, квантованная контрольная точка NVFP4 для Gemma-4-31B доступна через NVIDIA Model Optimizer для использования с vLLM. Точность NVFP4 поддерживает практически идентичную точность 8-битной, при этом значительно улучшая производительность на ватт и снижая стоимость за токен, что критически важно для крупномасштабных развертываний.

Приближение ИИ к периферии: Развертывание на устройствах с оборудованием NVIDIA

Поскольку рабочие процессы и агенты ИИ становятся все более неотъемлемой частью повседневных операций, возможность запускать эти модели за пределами традиционных сред центров обработки данных имеет первостепенное значение. NVIDIA предлагает комплексную экосистему клиентских и периферийных систем, от мощных графических процессоров, таких как RTX GPUs, до специализированных устройств Jetson и DGX Spark, предоставляя разработчикам гибкость, необходимую для оптимизации по стоимости, задержке и безопасности.

NVIDIA сотрудничала с ведущими фреймворками для инференса, такими как vLLM, Ollama и llama.cpp, чтобы обеспечить оптимальный опыт локального развертывания моделей Gemma 4. Кроме того, Unsloth предоставляет поддержку с первого дня с оптимизированными и квантованными моделями, обеспечивая эффективное локальное развертывание через Unsloth Studio. Эта надежная система поддержки позволяет разработчикам развертывать сложный ИИ непосредственно там, где он наиболее необходим.

DGX SparkJetsonRTX / RTX PRO
Вариант использованияИсследования и прототипирование ИИПериферийный ИИ и робототехникаНастольные приложения и разработка под Windows
Ключевые особенностиПредустановленный программный стек NVIDIA AI и 128 ГБ унифицированной памяти обеспечивают локальное прототипирование, донастройку и полностью локальные рабочие процессы OpenClawПочти нулевая задержка благодаря архитектурным особенностям, таким как условная загрузка параметров и эмбеддинги для каждого слоя, которые могут быть кэшированы для более быстрого использования и снижения потребления памяти ( подробнее)Оптимизированная производительность для локального инференса для любителей, создателей контента и профессионалов
Руководство по началу работыРуководства по DGX Spark для развертывания vLLM, Ollama, Unsloth и llama.cpp
NeMo Automodel для руководства по донастройке на Spark
Лаборатория ИИ Jetson для учебных пособий и пользовательских контейнеров GemmaRTX AI Garage для руководств по Ollama и llama.cpp. Владельцы RTX Pro также могут использовать vLLM.

Таблица 2. Сравнение вариантов локального развертывания на платформах NVIDIA, освещающее основные варианты использования, ключевые возможности и рекомендуемые ресурсы для начала работы с системами DGX Spark, Jetson и RTX / RTX PRO, работающими с моделями Gemma 4.

Создание безопасных агентных рабочих процессов и развертываний, готовых к корпоративному использованию

Для разработчиков и энтузиастов ИИ NVIDIA DGX Spark, оснащенный суперчипом GB10 Grace Blackwell и 128 ГБ унифицированной памяти, предлагает беспрецедентные ресурсы. Эта надежная платформа идеально подходит для запуска модели Gemma 4 31B с весами BF16, обеспечивая эффективное прототипирование и создание сложных агентных рабочих процессов ИИ, при этом гарантируя частное и безопасное выполнение на устройстве. Операционная система DGX Linux и полный программный стек NVIDIA обеспечивают бесшовную среду разработки.

Механизм инференса vLLM, разработанный для обслуживания больших языковых моделей (БММ) с высокой пропускной способностью, максимизирует эффективность и минимизирует использование памяти на DGX Spark. Эта комбинация обеспечивает высокопроизводительную платформу для развертывания самых больших моделей Gemma 4. Разработчики могут использовать руководство по vLLM для инференса на DGX Spark или начать работу с Ollama или llama.cpp. Кроме того, NeMo Automodel позволяет донастраивать эти модели непосредственно на DGX Spark.

Для корпоративных пользователей NVIDIA NIM предлагает путь к развертыванию, готовому к производству. Разработчики могут прототипировать Gemma 4 31B, используя размещенный NVIDIA API NIM из каталога API NVIDIA. Для полномасштабного производства доступны предварительно упакованные и оптимизированные микросервисы NIM для безопасного, самостоятельно размещаемого развертывания, поддерживаемые корпоративной лицензией NVIDIA. Это гарантирует, что предприятия могут уверенно развертывать мощные решения ИИ, соответствующие строгим требованиям безопасности и эксплуатации.

Расширение возможностей физических агентов ИИ с помощью NVIDIA Jetson

Возможности современных физических агентов ИИ быстро развиваются, в значительной степени благодаря моделям Gemma 4, интегрирующим сложную аудио-, мультимодальную перцепцию и глубокое рассуждение. Эти передовые модели позволяют робототехническим системам выйти за рамки простого выполнения задач, предоставляя им способность понимать речь, интерпретировать визуальный контекст и разумно рассуждать перед действием.

На платформах NVIDIA Jetson разработчики могут выполнять инференс Gemma 4 на периферии, используя llama.cpp и vLLM. Jetson Orin Nano, например, поддерживает варианты Gemma 4 E2B и E4B, облегчая мультимодальный инференс на малых, встроенных и энергоэффективных системах. Эта возможность масштабирования распространяется на всю платформу Jetson, вплоть до мощного Jetson Thor, что позволяет единообразно развертывать модели независимо от аппаратной конфигурации. Это крайне важно для приложений в робототехнике, умных машинах и промышленной автоматизации, где низкая задержка и интеллект на устройстве имеют первостепенное значение. Разработчики, заинтересованные в изучении этих возможностей, могут найти учебные пособия и пользовательские контейнеры Gemma на Jetson AI Lab.

Настройка и коммерческая доступность с NVIDIA NeMo

Чтобы гарантировать адаптацию моделей Gemma 4 к конкретным приложениям и проприетарным наборам данных, NVIDIA предлагает надежные возможности донастройки через фреймворк NVIDIA NeMo. В частности, библиотека NeMo Automodel сочетает простоту использования нативного PyTorch с оптимизированной производительностью, делая процесс настройки доступным и эффективным.

Разработчики могут использовать такие методы, как контролируемая донастройка (SFT) и ресурсоэффективная LoRA (Low-Rank Adaptation), для выполнения донастройки 'с первого дня'. Этот процесс начинается непосредственно с контрольных точек моделей Gemma 4, доступных на Hugging Face, устраняя необходимость в громоздких шагах преобразования. Такая гибкость позволяет предприятиям и исследователям наделять модели Gemma 4 предметно-ориентированными знаниями, обеспечивая высокую точность и релевантность для специализированных задач.

Модели Gemma 4 легко доступны на всей платформе NVIDIA AI и предлагаются по коммерчески дружественной лицензии Apache 2.0. Эта открытая лицензия способствует широкому внедрению и интеграции в коммерческие продукты и услуги, позволяя разработчикам по всему миру внедрять инновации с помощью передового ИИ. От производительности Blackwell до повсеместного распространения платформ Jetson, Gemma 4 призвана приблизить передовой ИИ к каждому разработчику и каждому устройству.

Часто задаваемые вопросы

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Будьте в курсе

Получайте последние новости ИИ на почту.

Поделиться