Code Velocity
AI モデル

Gemma 4: NVIDIAでAIをデータセンターからエッジまで拡張

·5 分で読めます·NVIDIA·元の情報源
共有
NVIDIA Gemma 4モデルがエッジデバイスとデータセンターでのAIを可能に

人工知能の状況は急速に進化しており、高度なAIモデルをクラウドデータセンターだけでなく、ネットワークの最前線やユーザーデバイスに直接展開するという需要が高まっています。この変化は、低遅延、プライバシー強化、運用コスト削減、および接続が制限された環境で動作する能力の必要性によって推進されています。これらの重要な要件に対応するため、NVIDIAとGoogleは協力して、最新のGemma 4マルチモーダルおよび多言語モデルを発表しました。これらは、最も強力なNVIDIA Blackwellデータセンターから小型のJetsonエッジデバイスまでシームレスに拡張できるように設計されています。

これらのモデルは、効率と精度の面で大きな飛躍を遂げており、幅広い一般的なAIタスクに対応できる汎用性の高いツールとなっています。Gemma 4ファミリーは、AIが日常のアプリケーションにどのように統合されるかを再定義し、ローカルAI展開で可能なことの限界を押し広げる機能を提供します。

Gemma 4: マルチモーダルおよび多言語AIの進化

Gemmaverseは、Gemma 4の新しい4つのモデルの導入により拡大しました。それぞれが特定の展開シナリオを念頭に置いて設計されており、堅牢な機能セットを提供します。これらのモデルは単にサイズの問題ではなく、インテリジェントな設計によって、多様なAI課題において強力なパフォーマンスを発揮します。

Gemma 4モデルの核となる機能は以下の通りです。

  • 推論: 複雑な問題解決タスクで卓越したパフォーマンスを発揮し、より洗練された意思決定を可能にします。
  • コーディング: 高度なコード生成およびデバッグ機能により、開発者のワークフローを効率化します。
  • エージェント: 構造化されたツール使用のネイティブサポートにより、強力なエージェントAIシステムの作成を促進します。
  • 視覚、音声、ビデオ機能: オブジェクト認識、自動音声認識(ASR)、ドキュメント、ビデオインテリジェンスなどのユースケースに対応する豊富なマルチモーダルインタラクション。
  • インターリーブされたマルチモーダル入力: 1つのプロンプト内でテキストと画像を自由に混在させる機能により、より自然で包括的なインタラクションを提供します。
  • 多言語サポート: 35以上の言語に対するすぐに使えるサポートと、140以上の言語での事前学習により、グローバルなアクセシビリティを広げます。

Gemma 4ファミリーには、Gemmaシリーズで初の効率に最適化されたMixture-of-Experts(MoE)モデルが含まれています。驚くべきことに、4つのモデルすべてが1つのNVIDIA H100 GPUに適合し、その最適化された設計を示しています。31Bおよび26B A4Bバリアントは、ローカル環境とデータセンター環境の両方に適した高性能な推論モデルであり、E4BおよびE2Bモデルは、Gemma 3nの遺産に基づいて、オンデバイスおよびモバイルアプリケーション向けに特別に調整されています。

モデル名アーキテクチャタイプ総パラメータ数アクティブまたは実効パラメータ数入力コンテキスト長 (トークン)スライディングウィンドウ (トークン)モダリティ
Gemma-4-31BDense Transformer31B256K1024テキスト
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256Kテキスト
Gemma-4-E4BDense Transformer7.9B (埋め込みを含む)4.5B (実効)128K512テキスト、オーディオ、ビジョン、ビデオ
Gemma-4-E2BDense Transformer5.1B (埋め込みを含む)2.3B (実効)128K512テキスト、オーディオ、ビジョン、ビデオ

表1. Gemma 4モデルファミリーの概要。データセンター、エッジ、およびオンデバイス展開に適したモデルを選択するのに役立つよう、アーキテクチャタイプ、パラメータサイズ、実効パラメータ、サポートされるコンテキスト長、利用可能なモダリティをまとめたものです。

これらのモデルは、BF16チェックポイントとともにHugging Faceで利用可能です。NVIDIA Blackwell GPUを活用する開発者向けには、vLLMで使用するためのGemma-4-31B用NVFP4量子化チェックポイントがNVIDIA Model Optimizerを介して提供されています。NVFP4精度は、8ビット精度とほぼ同等の精度を維持しながら、ワットあたりのパフォーマンスを大幅に向上させ、トークンあたりのコストを削減するため、大規模展開にとって重要です。

AIをエッジへ: NVIDIAハードウェアによるオンデバイス展開

AIワークフローとエージェントが日常業務に不可欠になるにつれて、従来のデータセンター環境を超えてこれらのモデルを実行する能力が最も重要になります。NVIDIAは、RTX GPUのような強力なGPUから、専門のJetsonデバイスやDGX Sparkに至るまで、クライアントおよびエッジシステムの包括的なエコシステムを提供し、開発者がコスト、レイテンシ、およびセキュリティのために最適化するために必要な柔軟性を提供します。

NVIDIAは、vLLM、Ollama、llama.cppなどの主要な推論フレームワークと協力し、Gemma 4モデルに最適なローカル展開体験を保証しています。さらに、Unslothは最適化および量子化されたモデルで初日からのサポートを提供し、Unsloth Studioを通じて効率的なローカル展開を可能にします。この堅牢なサポートシステムにより、開発者は最も必要とされる場所に高度なAIを直接展開することができます。

DGX SparkJetsonRTX / RTX PRO
ユースケースAI研究とプロトタイピングエッジAIとロボティクスデスクトップアプリとWindows開発
主な特徴事前インストールされたNVIDIA AIソフトウェアスタックと128 GBのユニファイドメモリが、ローカルプロトタイピング、ファインチューニング、および完全にローカルなOpenClawワークフローを強化します条件付きパラメータロードやレイヤーごとの埋め込みなどのアーキテクチャ機能により、高速化とメモリ使用量削減のためにキャッシュできるため、ほぼゼロのレイテンシを実現 (詳細情報)ホビイスト、クリエイター、プロフェッショナル向けのローカル推論のために最適化されたパフォーマンス
利用開始ガイドvLLM、Ollama、Unsloth、llama.cpp展開ガイド用のDGX Spark Playbooks
Sparkでのファインチューニングガイド用のNeMo Automodel
チュートリアルとカスタムGemmaコンテナ用のJetson AI LabOllamaおよびllama.cppガイド用のRTX AI Garage。RTX Proの所有者もvLLMを使用できます。

表2. NVIDIAプラットフォーム全体でのローカル展開オプションの比較。DGX Spark、Jetson、およびRTX / RTX PROシステムでGemma 4モデルを実行するための主要なユースケース、主要機能、推奨される開始リソースを強調しています。

セキュアなエージェントワークフローと企業向け展開の構築

AI開発者および愛好家向けに、GB10 Grace Blackwell Superchipと128 GBのユニファイドメモリを搭載したNVIDIA DGX Sparkは、比類のないリソースを提供します。この堅牢なプラットフォームは、BF16ウェイトでGemma 4 31Bモデルを実行するのに理想的であり、プライベートでセキュアなオンデバイス実行を確保しながら、複雑なエージェントAIワークフローの効率的なプロトタイピングと構築を可能にします。DGX Linux OSと完全なNVIDIAソフトウェアスタックは、シームレスな開発環境を提供します。

高スループットのLLMサービングのために設計されたvLLM推論エンジンは、DGX Spark上の効率を最大化し、メモリ使用量を最小限に抑えます。この組み合わせは、最大のGemma 4モデルを展開するための高性能プラットフォームを提供します。開発者は、vLLM for Inference DGX Spark playbookを活用したり、Ollamaまたはllama.cppを開始したりできます。さらに、NeMo Automodelは、これらのモデルをDGX Spark上で直接ファインチューニングすることを可能にします。

エンタープライズユーザー向けに、NVIDIA NIMは本番環境対応の展開への道を提供します。開発者は、NVIDIA APIカタログからNVIDIAホスト型NIM APIを使用してGemma 4 31Bのプロトタイプを作成できます。本格的な本番稼働のためには、NVIDIA Enterprise Licenseによってサポートされる、セキュアな自己ホスト型展開用の事前パッケージ化され最適化されたNIMマイクロサービスが利用可能です。これにより、企業は厳格なセキュリティおよび運用要件を満たし、自信を持って強力なAIソリューションを展開できます。

NVIDIA Jetsonで物理AIエージェントを強化

現代の物理AIエージェントの能力は急速に進化しており、Gemma 4モデルが高度なオーディオ、マルチモーダル知覚、および深い推論を統合していることが大きく寄与しています。これらの高度なモデルにより、ロボットシステムは単純なタスク実行を超えて、音声を理解し、視覚的なコンテキストを解釈し、行動する前にインテリジェントに推論する能力を付与されます。

NVIDIA Jetsonプラットフォームでは、開発者はllama.cppとvLLMを使用してエッジでGemma 4推論を実行できます。例えば、Jetson Orin NanoはGemma 4 E2BおよびE4Bバリアントをサポートしており、小型で組み込み型の電力制約のあるシステムでのマルチモーダル推論を容易にします。このスケーリング機能は、Jetson Thorのような強力なプラットフォームまでJetsonプラットフォーム全体に及び、ハードウェアのフットプリントに関わらず一貫したモデル展開を可能にします。これは、低遅延パフォーマンスとデバイス上のインテリジェンスが最も重要となるロボット工学、スマートマシン、産業オートメーションのアプリケーションにとって不可欠です。これらの機能の探索に関心のある開発者は、Jetson AI LabでチュートリアルとカスタムGemmaコンテナを見つけることができます。

NVIDIA NeMoによるカスタマイズと商用利用のアクセシビリティ

Gemma 4モデルが特定のアプリケーションと独自のデータセットに合わせて調整できるようにするため、NVIDIAはNVIDIA NeMoフレームワークを通じて堅牢なファインチューニング機能を提供しています。特にNeMo Automodelライブラリは、ネイティブPyTorchの使いやすさと最適化されたパフォーマンスを組み合わせ、カスタマイズプロセスをアクセスしやすく効率的にします。

開発者は、教師ありファインチューニング(SFT)やメモリ効率の高いLoRA(Low-Rank Adaptation)などの技術を活用して、'day-zero'ファインチューニングを実行できます。このプロセスは、Hugging Faceで利用可能なGemma 4モデルのチェックポイントから直接開始され、煩雑な変換ステップを不要にします。この柔軟性により、企業や研究者はGemma 4モデルにドメイン固有の知識を注入し、専門的なタスクに対して高い精度と関連性を確保できます。

Gemma 4モデルは、NVIDIA AIプラットフォーム全体で容易に利用可能であり、商用利用が可能なApache 2.0ライセンスの下で提供されています。このオープンソースライセンスは、幅広い採用と商用製品およびサービスへの統合を促進し、世界中の開発者が最先端のAIで革新することを可能にします。BlackwellのパフォーマンスからJetsonプラットフォームの遍在性まで、Gemma 4は高度なAIをすべての開発者とすべてのデバイスにより近づけることになります。

よくある質問

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

最新情報を入手

最新のAIニュースをメールでお届けします。

共有