Code Velocity
Süni İntellekt Modelləri

Gemma 4: Süni İntellektin Məlumat Mərkəzindən Kənar Qurğulara qədər NVIDIA ilə Genişləndirilməsi

·5 dəq oxunma·NVIDIA·Orijinal mənbə
Paylaş
NVIDIA Gemma 4 modelləri kənar qurğularda və məlumat mərkəzlərində süni intellektin tətbiqini təmin edir

Süni intellekt sahəsi sürətlə inkişaf edir, qabaqcıl süni intellekt modellərini yalnız bulud məlumat mərkəzlərində deyil, həm də şəbəkələrin kənarında və birbaşa istifadəçi cihazlarında tətbiq etməyə artan tələbat var. Bu dəyişiklik, daha aşağı gecikmə, təkmilləşdirilmiş məxfilik, azaldılmış əməliyyat xərcləri və məhdud əlaqəli mühitlərdə işləmək qabiliyyəti ehtiyacından qaynaqlanır. Bu kritik tələbləri qarşılayaraq, NVIDIA və Google, ən güclü NVIDIA Blackwell məlumat mərkəzlərindən yığcam Jetson kənar qurğularına qədər qüsursuz şəkildə miqyaslanmaq üçün hazırlanmış ən son Gemma 4 multimodal və çoxdilli modellərini təqdim etmək üçün əməkdaşlıq etmişlər.

Bu modellər effektivlik və dəqiqlikdə əhəmiyyətli bir sıçrayışı təmsil edir, bu da onları geniş yayılmış süni intellekt tapşırıqları üçün çox yönlü alətlər edir. Gemma 4 ailəsi, süni intellektin gündəlik tətbiqlərə necə inteqrasiya olunduğunu yenidən müəyyənləşdirməyə hazırdır, yerli süni intellekt tətbiqində mümkün olanın sərhədlərini genişləndirən imkanlar təklif edir.

Gemma 4: Multimodal və Çoxdilli Süni İntellektin İnkişafı

Gemmaverse, hər biri xüsusi tətbiq ssenariləri nəzərə alınaraq hazırlanmış, eyni zamanda güclü imkanlar dəsti təklif edən dörd yeni Gemma 4 modelinin təqdimatı ilə genişlənmişdir. Bu modellər sadəcə ölçü ilə bağlı deyil; onlar müxtəlif süni intellekt problemlərində güclü performans təmin edən ağıllı dizaynla bağlıdır.

Gemma 4 modellərinin əsas imkanları bunlardır:

  • Mühakimə: Mürəkkəb problemlərin həlli tapşırıqlarında müstəsna performans, daha mürəkkəb qərar qəbul etməyə imkan verir.
  • Kodlaşdırma: Qabaqcıl kod generasiyası və sazlama xüsusiyyətləri, tərtibatçı iş axınlarını asanlaşdırır.
  • Agentlər: Strukturlaşdırılmış alət istifadəsi üçün yerli dəstək, güclü agent tipli süni intellekt sistemlərinin yaradılmasını asanlaşdırır.
  • Görmə, Audio və Video İmkanları: Obyekt tanıma, avtomatik nitq tanıma (ASR), sənəd və video intellekti kimi istifadə halları üçün zəngin multimodal qarşılıqlı əlaqələr.
  • Interleaved Multimodal Giriş: Vahid bir sorğu daxilində mətn və təsvirləri sərbəst şəkildə qarışdırma qabiliyyəti, daha təbii və hərtərəfli qarşılıqlı əlaqə təklif edir.
  • Çoxdilli Dəstək: 35-dən çox dil üçün hazır dəstək, 140-dan çox dildə əvvəlcədən təlim keçmiş, qlobal əlçatanlığı genişləndirir.

Gemma 4 ailəsinə Gemma seriyasının ilk Mixture-of-Experts (MoE) modeli daxildir, effektivlik üçün optimallaşdırılmışdır. Qeyd etmək lazımdır ki, dörd modelin hamısı tək bir NVIDIA H100 GPU-ya sığa bilir, bu da onların optimallaşdırılmış dizaynını nümayiş etdirir. 31B və 26B A4B variantları həm yerli, həm də məlumat mərkəzi mühitləri üçün uyğun yüksək performanslı mühakimə modelləridir, E4B və E2B modelləri isə Gemma 3n-in mirası üzərində qurularaq, xüsusilə cihaz üzərində və mobil tətbiqlər üçün hazırlanmışdır.

Model AdıMemarlıq NövüÜmumi ParametrlərAktiv və ya Effektiv ParametrlərGiriş Kontekst Uzunluğu (Tokenlər)Sürüşən Pəncərə (Tokenlər)Modallıqlar
Gemma-4-31BDense Transformer31B256K1024Mətn
Gemma-4-26B-A4BMoE – 128 Ekspert26B3.8B256KMətn
Gemma-4-E4BDense Transformer7.9B (embeddings ilə)4.5B effektiv128K512Mətn, Audio, Görmə, Video
Gemma-4-E2BDense Transformer5.1B (embeddings ilə)2.3B effektiv128K512Mətn, Audio, Görmə, Video

Cədvəl 1. Gemma 4 model ailəsinə ümumi baxış, memarlıq növlərini, parametr ölçülərini, effektiv parametrləri, dəstəklənən kontekst uzunluqlarını və mövcud modallıqları ümumiləşdirərək tərtibatçılara məlumat mərkəzi, kənar və cihaz üzərində tətbiqlər üçün doğru modeli seçməyə kömək edir.

Bu modellər BF16 yoxlama nöqtələri ilə Hugging Face-də mövcuddur. NVIDIA Blackwell GPU-larından istifadə edən tərtibatçılar üçün, Gemma-4-31B üçün NVFP4 kvantizasiya edilmiş yoxlama nöqtəsi NVIDIA Model Optimizer vasitəsilə vLLM ilə istifadə üçün əlçatandır. NVFP4 dəqiqliyi, 8-bit dəqiqliyinə demək olar ki, eyni dəqiqliyi qoruyarkən, hər vatt üçün performansı əhəmiyyətli dərəcədə yaxşılaşdırır və hər token üçün xərci azaldır ki, bu da genişmiqyaslı tətbiqlər üçün kritikdir.

Süni İntellekti Kənara Çıxarmaq: NVIDIA Avadanlığı ilə Cihaz Üzərində Tətbiq

Süni intellekt iş axınları və agentləri gündəlik əməliyyatların getdikcə ayrılmaz hissəsinə çevrildikcə, bu modelləri ənənəvi məlumat mərkəzi mühitlərindən kənarda işlətmək imkanı son dərəcə vacibdir. NVIDIA, güclü GPU-lar kimi RTX GPU-lardan xüsusi Jetson qurğularına və DGX Spark-a qədər müştəri və kənar sistemlərinin hərtərəfli ekosistemini təklif edir, tərtibatçılara xərc, gecikmə və təhlükəsizlik üçün optimallaşdırmağa ehtiyac duyduqları çevikliyi təmin edir.

NVIDIA, Gemma 4 modelləri üçün optimal yerli tətbiq təcrübəsini təmin etmək üçün vLLM, Ollama və llama.cpp kimi aparıcı nəticə çıxarma framework-ları ilə əməkdaşlıq etmişdir. Bundan əlavə, Unsloth optimallaşdırılmış və kvantizasiya edilmiş modellərlə ilk gün dəstəyi təmin edir, Unsloth Studio vasitəsilə səmərəli yerli tətbiqə imkan verir. Bu möhkəm dəstək sistemi, tərtibatçılara mürəkkəb süni intellekti birbaşa ən çox ehtiyac duyulan yerə tətbiq etmək imkanı verir.

| | DGX Spark | Jetson | RTX / RTX PRO | | :---------------------------- | :--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | :----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------əli parametrləri yüklənməsi və hər qat üçün embeddings kimi memarlıq xüsusiyyətlərinə görə sıfıra yaxın gecikmə, bu da daha sürətli və az yaddaş istifadəsi üçün keşlənə bilər ( daha ətraflı) | Həvəskarlar, yaradıcılar və peşəkarlar üçün yerli nəticə çıxarmaq üçün optimallaşdırılmış performans | | İstifadə Sahəsi | Süni intellekt tədqiqatı və prototip yaratma | Kənar süni intellekt və robototexnika | İş masası tətbiqləri və Windows inkişafı | | Əsas Xüsusiyyətlər | Əvvəlcədən quraşdırılmış NVIDIA Süni İntellekt proqram təminatı paketi və 128 GB vahid yaddaş yerli prototip yaratma, tənzimləmə və tam yerli OpenClaw iş axınlarını gücləndirir | Şərti parametr yüklənməsi və hər qat üçün embeddings kimi memarlıq xüsusiyyətlərinə görə sıfıra yaxın gecikmə, bu da daha sürətli və az yaddaş istifadəsi üçün keşlənə bilər ( daha ətraflı) | Həvəskarlar, yaradıcılar və peşəkarlar üçün yerli nəticə çıxarmaq üçün optimallaşdırılmış performans | | Başlama Bələdçisi | vLLM, Ollama, Unsloth və llama.cpp tətbiq bələdçiləri üçün DGX Spark Playbooks
Spark üzərində tənzimləmə bələdçisi üçün NeMo Automodel | Təlimatlar və xüsusi Gemma konteynerləri üçün Jetson AI Lab | Ollama və llama.cpp bələdçiləri üçün RTX AI Garage. RTX Pro sahibləri də vLLM-dən istifadə edə bilərlər. |

Cədvəl 2. NVIDIA platformalarında yerli tətbiq variantlarının müqayisəsi, DGX Spark, Jetson və RTX / RTX PRO sistemlərində Gemma 4 modellərini işlədən əsas istifadə halları, əsas imkanları və tövsiyə olunan başlama resurslarını vurğulayır.

Təhlükəsiz Agent Tipli İş Axınları və Müəssisələr üçün Hazır Tətbiqlər Qurmaq

Süni intellekt tərtibatçıları və həvəskarları üçün, GB10 Grace Blackwell Superchip və 128 GB vahid yaddaşa malik olan NVIDIA DGX Spark, misilsiz resurslar təklif edir. Bu möhkəm platforma, Gemma 4 31B modelini BF16 çəkiləri ilə işlətmək, səmərəli prototip yaratmaq və mürəkkəb agent tipli süni intellekt iş axınları qurmaq, eyni zamanda özəl və təhlükəsiz cihaz üzərində icranı təmin etmək üçün idealdır. DGX Linux OS və tam NVIDIA proqram təminatı paketi qüsursuz inkişaf mühiti təmin edir.

Yüksək buraxılış qabiliyyətli BDM xidməti üçün nəzərdə tutulmuş vLLM nəticə çıxarma mühərriki, DGX Spark-da effektivliyi maksimuma çatdırır və yaddaş istifadəsini minimuma endirir. Bu birləşmə, ən böyük Gemma 4 modellərini tətbiq etmək üçün yüksək performanslı platforma təmin edir. Tərtibatçılar vLLM for Inference DGX Spark playbook-dan istifadə edə bilər və ya Ollama və ya llama.cpp ilə başlaya bilərlər. Bundan əlavə, NeMo Automodel bu modelləri birbaşa DGX Spark üzərində tənzimləməyə imkan verir.

Müəssisə istifadəçiləri üçün NVIDIA NIM, istehsalat üçün hazır tətbiqə yol açır. Tərtibatçılar, NVIDIA API kataloqundan NVIDIA-nın host etdiyi bir NIM API istifadə edərək Gemma 4 31B prototipini yarada bilərlər. Tam miqyaslı istehsalat üçün, əvvəlcədən qablaşdırılmış və optimallaşdırılmış NIM mikro xidmətləri, NVIDIA Enterprise Lisenziyası ilə dəstəklənən təhlükəsiz, özünü host edən tətbiq üçün mövcuddur. Bu, müəssisələrin ciddi təhlükəsizlik və əməliyyat tələblərinə cavab verərək güclü süni intellekt həllərini inamla tətbiq edə bilmələrini təmin edir.

NVIDIA Jetson ilə Fiziki Süni İntellekt Agentlərini Gücləndirmək

Müasir fiziki süni intellekt agentlərinin imkanları, Gemma 4 modellərinin mürəkkəb audio, multimodal qavrayış və dərin mühakiməni inteqrasiya etməsi səbəbindən sürətlə inkişaf edir. Bu qabaqcıl modellər, robot sistemlərinə sadə tapşırıq icrasından kənara çıxmağa, onlara nitqi anlamağa, vizual konteksti şərh etməyə və hərəkət etməzdən əvvəl ağıllı şəkildə mühakimə yürütməyə imkan verir.

NVIDIA Jetson platformalarında, tərtibatçılar llama.cpp və vLLM istifadə edərək kənarda Gemma 4 nəticəsi çıxara bilərlər. Məsələn, Jetson Orin Nano, Gemma 4 E2B və E4B variantlarını dəstəkləyir, kiçik, daxili və enerjisi məhdud sistemlərdə multimodal nəticə çıxarmağı asanlaşdırır. Bu miqyaslama qabiliyyəti, avadanlığın ölçüsündən asılı olmayaraq, modelin ardıcıl tətbiqinə imkan verən bütün Jetson platforması, güclü Jetson Thor-a qədər uzanır. Bu, aşağı gecikməli performansın və cihaz üzərində intellektin əsas olduğu robototexnika, ağıllı maşınlar və sənaye avtomatlaşdırması tətbiqləri üçün kritikdir. Bu imkanları araşdırmaq istəyən tərtibatçılar, Jetson AI Lab-da təlimatlar və xüsusi Gemma konteynerləri tapa bilərlər.

NVIDIA NeMo ilə Fərdiləşdirmə və Kommersiya Əlçatanlığı

Gemma 4 modellərinin xüsusi tətbiqlərə və müəssisə məlumat dəstlərinə uyğunlaşdırıla bilməsini təmin etmək üçün NVIDIA, NVIDIA NeMo framework-u vasitəsilə güclü tənzimləmə imkanları təklif edir. Xüsusilə NeMo Automodel kitabxanası, yerli PyTorch-un istifadə asanlığını optimallaşdırılmış performansla birləşdirərək, fərdiləşdirmə prosesini əlçatan və səmərəli edir.

Tərtibatçılar, nəzarətli tənzimləmə (SFT) və yaddaş qənaətli LoRA (Low-Rank Adaptation) kimi texnikalardan istifadə edərək "sıfırıncı gün" tənzimləməsini həyata keçirə bilərlər. Bu proses, Hugging Face-də mövcud olan Gemma 4 model yoxlama nöqtələrindən birbaşa başlayır, yorucu çevirmə addımlarına ehtiyacı aradan qaldırır. Bu çeviklik, müəssisələrə və tədqiqatçılara Gemma 4 modellərinə sahəyə xas biliklər aşılamağa imkan verir, xüsusi tapşırıqlar üçün yüksək dəqiqlik və uyğunluq təmin edir.

Gemma 4 modelləri bütün NVIDIA süni intellekt platformasında asanlıqla mövcuddur və kommersiya üçün uyğun Apache 2.0 lisenziyası altında təklif olunur. Bu açıq mənbə lisenziyası, geniş yayılmağa və kommersiya məhsul və xidmətlərinə inteqrasiyaya imkan verir, bütün dünyadakı tərtibatçıları qabaqcıl süni intellektlə innovasiya etməyə ruhlandırır. Blackwell-in performansından Jetson platformalarının hər yerdə olmasına qədər, Gemma 4 qabaqcıl süni intellekti hər bir tərtibatçıya və hər bir cihaza daha da yaxınlaşdıracaq.

Tez-tez Verilən Suallar

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Xəbərdar olun

Ən son AI xəbərlərini e-poçtunuza alın.

Paylaş