Code Velocity
מודלי AI

Gemma 4: הרחבת AI ממרכז הנתונים ועד לקצה הרשת עם NVIDIA

·5 דקות קריאה·NVIDIA·מקור מקורי
שתף
מודלי Gemma 4 של NVIDIA המאפשרים AI במכשירי קצה ומרכזי נתונים

נוף הבינה המלאכותית מתפתח במהירות, עם דרישה הולכת וגוברת לפרוס מודלי AI מתקדמים לא רק במרכזי נתונים בענן, אלא גם בקצה הרשת ובאופן ישיר על מכשירי משתמשים. שינוי זה מונע מהצורך בהשהיה נמוכה יותר, פרטיות משופרת, עלויות תפעול מופחתות, והיכולת לפעול בסביבות עם קישוריות מוגבלת. כדי לענות על דרישות קריטיות אלו, NVIDIA ו-Google שיתפו פעולה כדי להציג את מודלי Gemma 4 הרב-מודאליים והרב-לשוניים העדכניים ביותר, שתוכננו להתרחב בצורה חלקה ממרכזי הנתונים החזקים ביותר של NVIDIA Blackwell ועד להתקני קצה קומפקטיים מסוג Jetson.

מודלים אלו מייצגים קפיצת מדרגה משמעותית ביעילות ובדיוק, מה שהופך אותם לכלים רב-גוניים למגוון רחב של משימות AI נפוצות. משפחת Gemma 4 ערוכה להגדיר מחדש את האופן שבו AI משולב ביישומים יומיומיים, ומציעה יכולות שפורצות את גבולות האפשרי בפריסת AI מקומית.

Gemma 4: קידום AI רב-מודאלי ורב-לשוני

ה-'Gemmaverse' התרחב עם הצגתן של ארבעה מודלי Gemma 4 חדשים, שכל אחד מהם תוכנן עם תרחישי פריסה ספציפיים בחשבון, תוך מתן סט יכולות חזק. מודלים אלו אינם עוסקים רק בגודל; הם עוסקים בתכנון חכם, המספקים ביצועים חזקים על פני אתגרי AI מגוונים.

יכולות ליבה של מודלי Gemma 4 כוללות:

  • היגיון: ביצועים יוצאי דופן במשימות מורכבות של פתרון בעיות, המאפשרים קבלת החלטות מתוחכמת יותר.
  • קידוד: תכונות מתקדמות של יצירת קוד וניפוי באגים, המייעלות את זרימות העבודה של מפתחים.
  • סוכנים: תמיכה מובנית בשימוש מובנה בכלים, המקלה על יצירת מערכות AI סוכנים (agentic AI) עוצמתיות.
  • יכולות ראייה, אודיו ווידאו: אינטראקציות רב-מודאליות עשירות עבור מקרי שימוש כגון זיהוי אובייקטים, זיהוי דיבור אוטומטי (ASR), בינת מסמכים ווידאו.
  • קלט רב-מודאלי משולב: היכולת לערבב בחופשיות טקסט ותמונות בתוך פקודה אחת (prompt), המציעה אינטראקציה טבעית ומקיפה יותר.
  • תמיכה רב-לשונית: תמיכה מובנית בלמעלה מ-35 שפות, עם אימון מקדים על פני למעלה מ-140 שפות, המרחיבה את הנגישות הגלובלית.

משפחת Gemma 4 כוללת את מודל ה-Mixture-of-Experts (MoE) הראשון בסדרת Gemma, המותאם ליעילות. באופן יוצא דופן, כל ארבעת המודלים יכולים להשתלב על GPU יחיד של NVIDIA H100, מה שמדגים את העיצוב הממוטב שלהם. גרסאות 31B ו-26B A4B הן מודלי היגיון בעלי ביצועים גבוהים המתאימים הן לסביבות מקומיות והן לסביבות מרכזי נתונים, בעוד שמודלי E4B ו-E2B מותאמים במיוחד ליישומים על המכשיר וניידים, ומתבססים על המורשת של Gemma 3n.

שם המודלסוג ארכיטקטורהסך הפרמטריםפרמטרים פעילים או אפקטיבייםאורך הקשר קלט (טוקנים)חלון הזזה (טוקנים)מודאליות
Gemma-4-31Bטרנספורמר צפוף31B256K1024טקסט
Gemma-4-26B-A4BMoE – 128 מומחים26B3.8B256Kטקסט
Gemma-4-E4Bטרנספורמר צפוף7.9B with embeddings4.5B effective128K512טקסט, אודיו, ראייה, וידאו
Gemma-4-E2Bטרנספורמר צפוף5.1B with embeddings2.3B effective128K512טקסט, אודיו, ראייה, וידאו

טבלה 1. סקירה כללית של משפחת מודלי Gemma 4, המסכמת סוגי ארכיטקטורה, גודלי פרמטרים, פרמטרים אפקטיביים, אורכי קשר נתמכים ומודאליות זמינות כדי לעזור למפתחים לבחור את המודל הנכון עבור פריסות במרכזי נתונים, בקצה הרשת ועל המכשיר.

מודלים אלו זמינים ב-Hugging Face עם נקודות בדיקה BF16. למפתחים המשתמשים במעבדי NVIDIA Blackwell, נקודת בדיקה מכווננת (quantized checkpoint) מסוג NVFP4 עבור Gemma-4-31B זמינה באמצעות NVIDIA Model Optimizer לשימוש עם vLLM. דיוק NVFP4 שומר על דיוק כמעט זהה לדיוק 8 סיביות תוך שיפור משמעותי של ביצועים לוואט והורדת עלות לטוקן, דבר קריטי עבור פריסות בקנה מידה גדול.

מביאים את ה-AI לקצה: פריסה על המכשיר עם חומרת NVIDIA

ככל שזרימות עבודה וסוכני AI הופכים לחלק בלתי נפרד מפעולות יומיומיות, היכולת להריץ מודלים אלו מחוץ לסביבות מרכז הנתונים המסורתיות היא בעלת חשיבות עליונה. NVIDIA מציעה מערכת אקולוגית מקיפה של מערכות לקוח וקצה, החל מ-מעבדים גרפיים (GPUs) רבי עוצמה כמו מעבדי RTX ועד להתקני Jetson מיוחדים ו-DGX Spark, המספקת למפתחים את הגמישות הדרושה לאופטימיזציה עבור עלות, השהיה ואבטחה.

NVIDIA שיתפה פעולה עם מסגרות הסקה מובילות כמו vLLM, Ollama ו-llama.cpp כדי להבטיח חווית פריסה מקומית אופטימלית עבור מודלי Gemma 4. בנוסף, Unsloth מספקת תמיכה מהיום הראשון עם מודלים אופטימליים ומכווננים, המאפשרת פריסה מקומית יעילה באמצעות Unsloth Studio. מערכת תמיכה חזקה זו מעצימה מפתחים לפרוס AI מתוחכם ישירות היכן שהוא נחוץ ביותר.

DGX SparkJetsonRTX / RTX PRO
מקרה שימושמחקר AI ויצירת אב טיפוסAI בקצה ורובוטיקהיישומי שולחן עבודה ופיתוח Windows
דגשים עיקרייםערימת תוכנת AI של NVIDIA מותקנת מראש ו-128 גיגה-בייט של זיכרון מאוחד מפעילים יצירת אב טיפוס מקומית, כוונון עדין ותהליכי עבודה מקומיים לחלוטין של OpenClawהשהיה כמעט אפסית בזכות תכונות ארכיטקטורה כגון טעינת פרמטרים מותנית והטמעות לכל שכבה שניתן לשמור במטמון לשימוש מהיר יותר ומופחת בזיכרון ( מידע נוסף)ביצועים אופטימליים להסקה מקומית עבור חובבים, יוצרים ואנשי מקצוע
מדריך תחילת עבודהמדריכי DGX Spark למדריכי פריסה של vLLM, Ollama, Unsloth ו-llama.cpp
NeMo Automodel למדריך כוונון עדין ב-Spark
מעבדת AI של Jetson למדריכים וקונטיינרים מותאמים אישית של Gemmaמוסך RTX AI למדריכים של Ollama ו-llama.cpp. בעלי RTX Pro יכולים להשתמש גם ב-vLLM.

טבלה 2. השוואת אפשרויות פריסה מקומיות על פני פלטפורמות NVIDIA, המדגישה מקרי שימוש עיקריים, יכולות מפתח ומשאבי תחילת עבודה מומלצים עבור מערכות DGX Spark, Jetson ו-RTX / RTX PRO המריצות מודלי Gemma 4.

בניית תהליכי עבודה סוכנים מאובטחים ופריסות מוכנות לארגונים

עבור מפתחי AI וחובבים, ה-NVIDIA DGX Spark, הכולל את ה-GB10 Grace Blackwell Superchip ו-128 גיגה-בייט של זיכרון מאוחד, מציע משאבים ללא תחרות. פלטפורמה חזקה זו אידיאלית להפעלת מודל Gemma 4 31B עם משקלי BF16, ומאפשרת יצירת אב טיפוס ובנייה יעילים של זרימות עבודה מורכבות של AI סוכנים תוך הבטחת ביצוע פרטי ומאובטח על המכשיר. מערכת ההפעלה DGX Linux וערימת התוכנה המלאה של NVIDIA מספקות סביבת פיתוח חלקה.

מנוע ההסקה vLLM, שתוכנן להגשת LLM עם תפוקה גבוהה, ממקסם את היעילות וממזער את השימוש בזיכרון ב-DGX Spark. שילוב זה מספק פלטפורמה בעלת ביצועים גבוהים לפריסת מודלי Gemma 4 הגדולים ביותר. מפתחים יכולים למנף את מדריך vLLM להסקה ב-DGX Spark או להתחיל עם Ollama או llama.cpp. יתר על כן, ה-NeMo Automodel מאפשר כוונון עדין של מודלים אלו ישירות ב-DGX Spark.

עבור משתמשי ארגונים, NVIDIA NIM מציעה נתיב לפריסה מוכנה לייצור. מפתחים יכולים ליצור אב טיפוס של Gemma 4 31B באמצעות API של NIM המתארח על ידי NVIDIA מתוך קטלוג ה-API של NVIDIA. לייצור בקנה מידה מלא, מיקרו-שירותי NIM ארוזים מראש ומותאמים זמינים לפריסה מאובטחת ומתארחת עצמאית, הנתמכים על ידי רישיון ארגוני של NVIDIA. זה מבטיח שארגונים יכולים לפרוס פתרונות AI עוצמתיים בביטחון, תוך עמידה בדרישות אבטחה ותפעול מחמירות.

העצמת סוכני AI פיזיים עם NVIDIA Jetson

היכולות של סוכני AI פיזיים מודרניים מתקדמות במהירות, בעיקר בזכות מודלי Gemma 4 המשלבים אודיו מתוחכם, תפיסה רב-מודאלית והיגיון עמוק. מודלים מתקדמים אלו מאפשרים למערכות רובוטיקה להתקדם מעבר לביצוע משימות פשטניות, ומעניקים להן את היכולת להבין דיבור, לפרש הקשר חזותי ולהסיק מסקנות בחוכמה לפני פעולה.

בפלטפורמות NVIDIA Jetson, מפתחים יכולים לבצע הסקת Gemma 4 בקצה באמצעות llama.cpp ו-vLLM. ה-Jetson Orin Nano, לדוגמה, תומך בגרסאות Gemma 4 E2B ו-E4B, ומאפשר הסקה רב-מודאלית במערכות קטנות, משובצות ומוגבלות כוח. יכולת התרחבות זו משתרעת על פני כל פלטפורמת Jetson, עד ל-Jetson Thor העוצמתי, ומאפשרת פריסת מודלים עקבית ללא קשר לחומרת הבסיס. זה קריטי עבור יישומים ברובוטיקה, מכונות חכמות ואוטומציה תעשייתית, שבהם ביצועים עם השהיה נמוכה ובינה על המכשיר הם בעלי חשיבות עליונה. מפתחים המעוניינים לחקור יכולות אלו יכולים למצוא מדריכים וקונטיינרים מותאמים אישית של Gemma במעבדת AI של Jetson.

התאמה אישית ונגישות מסחרית עם NVIDIA NeMo

כדי להבטיח שמודלי Gemma 4 יוכלו להיות מותאמים ליישומים ספציפיים ולמערכי נתונים קנייניים, NVIDIA מציעה יכולות כוונון עדין חזקות באמצעות מסגרת NVIDIA NeMo. ספריית NeMo Automodel, בפרט, משלבת את קלות השימוש של PyTorch מקורי עם ביצועים אופטימליים, מה שהופך את תהליך ההתאמה האישית לנגיש ויעיל.

מפתחים יכולים למנף טכניקות כגון כוונון עדין מונחה (SFT) ו-LoRA (Low-Rank Adaptation) חסכוני בזיכרון, כדי לבצע כוונון עדין "יום אפס". תהליך זה מתחיל ישירות מנקודות הבדיקה של מודל Gemma 4 הזמינות ב-Hugging Face, מה שמבטל את הצורך בשלבי המרה מסורבלים. גמישות זו מאפשרת לארגונים וחוקרים להחדיר למודלי Gemma 4 ידע ספציפי לתחום, מה שמבטיח דיוק ורלוונטיות גבוהים למשימות מיוחדות.

מודלי Gemma 4 זמינים בקלות על פני כל פלטפורמת ה-AI של NVIDIA ומוצעים תחת רישיון Apache 2.0 הידידותי למסחר. רישיון קוד פתוח זה מקל על אימוץ נרחב ושילוב במוצרים ושירותים מסחריים, ומעצים מפתחים ברחבי העולם לחדש עם AI מתקדם. מביצועי Blackwell ועד לנוכחות הנרחבת של פלטפורמות Jetson, Gemma 4 ערוך לקרב AI מתקדם לכל מפתח ולכל מכשיר.

שאלות נפוצות

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

הישארו מעודכנים

קבלו את חדשות ה-AI האחרונות לתיבת הדוא״ל.

שתף