Code Velocity
نماذج الذكاء الاصطناعي

Gemma 4: توسيع نطاق الذكاء الاصطناعي من مراكز البيانات إلى الحافة مع NVIDIA

·5 دقائق للقراءة·NVIDIA·المصدر الأصلي
مشاركة
نماذج NVIDIA Gemma 4 تمكّن الذكاء الاصطناعي على الأجهزة الحافية ومراكز البيانات

title: "Gemma 4: توسيع نطاق الذكاء الاصطناعي من مراكز البيانات إلى الحافة مع NVIDIA" slug: "bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4" date: "2026-04-05" lang: "ar" source: "https://developer.nvidia.com/blog/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4/" category: "نماذج الذكاء الاصطناعي" keywords:

  • Gemma 4
  • NVIDIA
  • الذكاء الاصطناعي الحافي
  • الذكاء الاصطناعي على الجهاز
  • الذكاء الاصطناعي متعدد الوسائط
  • LLMs
  • نشر الذكاء الاصطناعي
  • Blackwell
  • Jetson
  • RTX
  • vLLM
  • NeMo meta_description: "استكشف Gemma 4، نماذج الذكاء الاصطناعي متعددة الوسائط واللغات من NVIDIA المصممة للنشر السلس من مراكز بيانات Blackwell إلى أجهزة Jetson الحافية، لتعزيز التطبيقات الآمنة ومنخفضة زمن الوصول." image: "/images/articles/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4.png" image_alt: "نماذج NVIDIA Gemma 4 تمكّن الذكاء الاصطناعي على الأجهزة الحافية ومراكز البيانات" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "ما هو Gemma 4 وما هي أهم التطورات التي يقدمها لنشر الذكاء الاصطناعي؟" answer: "يمثل Gemma 4 الجيل الأحدث من نماذج الذكاء الاصطناعي متعددة الوسائط واللغات من Google، والمصممة للنشر الواسع عبر طيف أجهزة NVIDIA بأكمله، من مراكز بيانات Blackwell القوية إلى أجهزة Jetson الحافية المدمجة. تتضمن أبرز تطوراته تحسينًا كبيرًا في الكفاءة والدقة، مما يجعله مناسبًا لمهام متنوعة مثل حل المشكلات المعقدة، وتوليد التعليمات البرمجية، واستخدام أدوات الوكيل. تتميز هذه النماذج بقدرات غنية متعددة الوسائط، تدعم النص والصور المتداخلة، وقد تم تدريبها مسبقًا على أكثر من 140 لغة. تلبي هذه المرونة وقابلية التوسع الطلب المتزايد على تطبيقات الذكاء الاصطناعي المحلية والآمنة والفعالة من حيث التكلفة ومنخفضة زمن الوصول، مما يدفع الذكاء أقرب إلى مصدر البيانات والإجراءات."
  • question: "كيف يسهل Gemma 4 عمليات نشر الذكاء الاصطناعي على الجهاز وفي الحافة، وما هي منصات NVIDIA التي تدعمه؟" answer: "تم تحسين Gemma 4 خصيصًا لتمكين عمليات نشر الذكاء الاصطناعي القوية على الجهاز وفي الحافة، وهو أمر بالغ الأهمية للتطبيقات التي تتطلب زمن وصول منخفضًا، وخصوصية معززة، وتكاليف تشغيل مخفضة. توفر مجموعة NVIDIA الشاملة من أنظمة العميل والحافة—بما في ذلك وحدات معالجة الرسوميات RTX، وDGX Spark، وأجهزة Jetson—المرونة والأداء اللازمين. على سبيل المثال، تدعم منصات Jetson متغيرات Gemma 4 E2B وE4B للاستدلال متعدد الوسائط على الأنظمة المدمجة محدودة الطاقة، بينما توفر وحدات معالجة الرسوميات RTX أداءً محسنًا للاستدلال المحلي على أجهزة سطح المكتب. تضمن عمليات التعاون مع vLLM وOllama وllama.cpp وUnsloth تجارب نشر محلية فعالة عبر هذه المنصات المتنوعة، مما يمكّن المطورين من دمج الذكاء الاصطناعي المتقدم مباشرة في تطبيقاتهم وأجهزتهم."
  • question: "ما هو الدور الذي تلعبه NVIDIA DGX Spark وNIM في تطوير ونشر نماذج Gemma 4 للمؤسسات؟" answer: "توفر NVIDIA DGX Spark منصة قوية لمطوري الذكاء الاصطناعي والمتحمسين لإنشاء نماذج أولية وتطوير مسارات عمل ذكاء اصطناعي آمنة وموجهة بالوكلاء باستخدام Gemma 4. بفضل شرائح GB10 Grace Blackwell الفائقة و128 جيجابايت من الذاكرة الموحدة، يمكّن DGX Spark التشغيل الفعال حتى لأكبر نماذج Gemma 4 بأوزان BF16، مع الحفاظ على التنفيذ الخاص والآمن على الجهاز. يعمل محرك الاستدلال vLLM على DGX Spark على زيادة تحسين خدمة نماذج اللغة الكبيرة (LLM) لتحقيق إنتاجية عالية. للنشر الإنتاجي، توفر NVIDIA NIM خدمات مصغرة مسبقة التعبئة ومحسنة، مقدمة حلاً آمنًا ومستضافًا ذاتيًا للمؤسسات التي تمتلك ترخيص NVIDIA Enterprise. تتوفر أيضًا واجهة برمجة تطبيقات (API) مستضافة لـ NIM في كتالوج NVIDIA API للنماذج الأولية الأولية."
  • question: "كيف يمكن للمطورين ضبط نماذج Gemma 4 لبيانات نطاق محددة، وما هي الأدوات المتاحة؟" answer: "يمكن للمطورين تخصيص نماذج Gemma 4 ببيانات نطاقهم الفريدة باستخدام إطار عمل NVIDIA NeMo، وخاصة مكتبة NeMo Automodel. تجمع هذه الأداة القوية بين سهولة استخدام PyTorch الأصلي والأداء المحسّن، مما يسمح بالضبط الدقيق الفعال. يمكن تطبيق تقنيات مثل الضبط الدقيق الخاضع للإشراف (SFT) وLoRA (التكيف منخفض الرتبة) الفعال من حيث الذاكرة مباشرة على نقاط فحص نموذج Gemma 4 المتاحة على Hugging Face، مما يلغي الحاجة إلى التحويلات المعقدة. يتيح ذلك الضبط الدقيق منذ اليوم الأول، مما يضمن أن النماذج ذات صلة ودقيقة للغاية للتطبيقات ومجموعات البيانات المتخصصة، ويعزز فائدتها عبر مختلف القطاعات الصناعية."
  • question: "ما هي شروط الترخيص التجاري لنماذج Gemma 4، ومدى سهولة وصول المطورين إليها؟" answer: "تتوفر نماذج Gemma 4 بسهولة كبيرة للمطورين والمؤسسات من خلال ترخيص Apache 2.0 الصديق للاستخدام التجاري. يسمح هذا الترخيص مفتوح المصدر بالاستخدام والتعديل والتوزيع الواسع للنماذج، مما يسهل دمجها في مختلف المنتجات والخدمات التجارية دون رسوم ترخيص مقيدة. علاوة على ذلك، تضمن NVIDIA توفرًا واسعًا عبر منصة الذكاء الاصطناعي الخاصة بها بالكامل، من مراكز بيانات Blackwell إلى أجهزة Jetson الحافية. يمكن للمطورين البدء فورًا بالوصول إلى نقاط فحص النموذج على Hugging Face، والاستفادة من وثائق NVIDIA الشاملة والبرامج التعليمية، والاستفادة من أدوات مثل vLLM وOllama وNeMo للنشر والتخصيص، مما يجعل الذكاء الاصطناعي المتقدم متاحًا بسهولة للابتكار."

يتطور مشهد الذكاء الاصطناعي بسرعة، مع تزايد الطلب على نشر نماذج الذكاء الاصطناعي المتقدمة ليس فقط في مراكز البيانات السحابية، ولكن أيضًا على حافة الشبكات مباشرة وعلى أجهزة المستخدمين. ينبع هذا التحول من الحاجة إلى زمن وصول أقل، وخصوصية معززة، وتكاليف تشغيل مخفضة، والقدرة على العمل في بيئات ذات اتصال محدود. لتلبية هذه المتطلبات الحاسمة، تعاونت NVIDIA وGoogle لتقديم أحدث نماذج Gemma 4 متعددة الوسائط واللغات، المصممة للتوسع بسلاسة من أقوى مراكز بيانات NVIDIA Blackwell وصولاً إلى أجهزة Jetson الحافية المدمجة. تمثل هذه النماذج قفزة كبيرة في الكفاءة والدقة، مما يجعلها أدوات متعددة الاستخدامات لمجموعة واسعة من مهام الذكاء الاصطناعي الشائعة. تستعد عائلة Gemma 4 لإعادة تعريف كيفية دمج الذكاء الاصطناعي في التطبيقات اليومية، وتقدم قدرات تدفع حدود ما هو ممكن في نشر الذكاء الاصطناعي المحلي.

Gemma 4: تطوير الذكاء الاصطناعي متعدد الوسائط واللغات

توسع عالم Gemma مع تقديم أربعة نماذج Gemma 4 جديدة، تم تصميم كل منها مع وضع سيناريوهات نشر محددة في الاعتبار مع تقديم مجموعة قوية من الإمكانيات. لا تتعلق هذه النماذج بالحجم فقط؛ بل تتعلق بالتصميم الذكي، وتقديم أداء قوي عبر تحديات الذكاء الاصطناعي المتنوعة.

تشمل القدرات الأساسية لنماذج Gemma 4 ما يلي:

  • التفكير: أداء استثنائي في مهام حل المشكلات المعقدة، مما يتيح اتخاذ قرارات أكثر تطوراً.
  • الترميز: ميزات متقدمة لتوليد التعليمات البرمجية وتصحيح الأخطاء، مما يبسط سير عمل المطورين.
  • الوكلاء: دعم أصلي لاستخدام الأدوات المنظمة، مما يسهل إنشاء أنظمة ذكاء اصطناعي قوية موجهة بالوكلاء.
  • قدرة الرؤية والصوت والفيديو: تفاعلات غنية متعددة الوسائط لحالات الاستخدام مثل التعرف على الكائنات، والتعرف التلقائي على الكلام (ASR)، وذكاء المستندات والفيديو.
  • الإدخال المتداخل متعدد الوسائط: القدرة على مزج النصوص والصور بحرية ضمن مطالبة واحدة، مما يوفر تفاعلاً أكثر طبيعية وشمولية.
  • دعم متعدد اللغات: دعم جاهز لأكثر من 35 لغة، مع تدريب مسبق عبر أكثر من 140 لغة، مما يوسع إمكانية الوصول العالمية.

تتضمن عائلة Gemma 4 أول نموذج Mixture-of-Experts (MoE) في سلسلة Gemma، والمحسن لتحقيق الكفاءة. ومن اللافت للنظر أن جميع النماذج الأربعة يمكن أن تتناسب مع وحدة معالجة رسوميات NVIDIA H100 واحدة، مما يدل على تصميمها المحسّن. تُعد متغيرات 31B و26B A4B نماذج تفكير عالية الأداء مناسبة لكل من البيئات المحلية ومراكز البيانات، بينما صُممت نماذج E4B وE2B خصيصًا للتطبيقات على الأجهزة المحمولة، بناءً على إرث Gemma 3n.

اسم النموذجنوع البنيةإجمالي المعاملاتالمعاملات النشطة أو الفعالةطول سياق الإدخال (رموز)نافذة الانزلاق (رموز)الوسائط
Gemma-4-31Bمحول كثيف31B256K1024نص
Gemma-4-26B-A4BMoE – 128 خبيرًا26B3.8B256Kنص
Gemma-4-E4Bمحول كثيف7.9B مع التضمينات4.5B فعال128K512نص، صوت، رؤية، فيديو
Gemma-4-E2Bمحول كثيف5.1B مع التضمينات2.3B فعال128K512نص، صوت، رؤية، فيديو

الجدول 1. نظرة عامة على عائلة نماذج Gemma 4، تلخص أنواع البنى، وأحجام المعاملات، والمعاملات الفعالة، وأطوال السياق المدعومة، والوسائط المتاحة لمساعدة المطورين على اختيار النموذج الصحيح لعمليات النشر في مراكز البيانات، وعلى الحافة، وعلى الأجهزة.

تتوفر هذه النماذج على Hugging Face مع نقاط فحص BF16. للمطورين الذين يستفيدون من وحدات معالجة الرسوميات NVIDIA Blackwell، تتوفر نقطة فحص NVFP4 الكمية لـ Gemma-4-31B عبر NVIDIA Model Optimizer للاستخدام مع vLLM. تحافظ دقة NVFP4 على دقة شبه مطابقة لدقة 8 بت مع تحسين الأداء بشكل كبير لكل واط وتخفيض التكلفة لكل رمز، وهو أمر بالغ الأهمية لعمليات النشر واسعة النطاق.

جلب الذكاء الاصطناعي إلى الحافة: النشر على الجهاز باستخدام أجهزة NVIDIA

مع تزايد تكامل مسارات عمل الذكاء الاصطناعي والوكلاء في العمليات اليومية، فإن القدرة على تشغيل هذه النماذج خارج بيئات مراكز البيانات التقليدية أمر بالغ الأهمية. تقدم NVIDIA نظامًا بيئيًا شاملاً لأنظمة العميل والحافة، بدءًا من وحدات معالجة الرسوميات القوية مثل وحدات معالجة الرسوميات RTX وصولاً إلى أجهزة Jetson المتخصصة وDGX Spark، مما يوفر للمطورين المرونة اللازمة لتحسين التكلفة وزمن الوصول والأمان.

تعاونت NVIDIA مع أطر عمل الاستدلال الرائدة مثل vLLM وOllama وllama.cpp لضمان تجربة نشر محلية مثالية لنماذج Gemma 4. بالإضافة إلى ذلك، توفر Unsloth دعمًا من اليوم الأول بنماذج محسّنة ومكمّاة، مما يتيح النشر المحلي الفعال عبر Unsloth Studio. يمكّن نظام الدعم القوي هذا المطورين من نشر الذكاء الاصطناعي المتطور مباشرة حيث تشتد الحاجة إليه.

DGX SparkJetsonRTX / RTX PRO
حالة الاستخدامالبحث والنمذجة الأولية في الذكاء الاصطناعيالذكاء الاصطناعي الحافي والروبوتاتتطبيقات سطح المكتب وتطوير Windows
أبرز الميزاتمكدس برامج NVIDIA AI مثبت مسبقًا و128 جيجابايت من الذاكرة الموحدة يدعمان النمذجة الأولية المحلية، والضبط الدقيق، ومسارات عمل OpenClaw المحلية بالكامل.زمن وصول يقارب الصفر بفضل ميزات البنية مثل تحميل المعاملات الشرطي وتضمينات كل طبقة التي يمكن تخزينها مؤقتًا لاستخدام أسرع وتقليل للذاكرة ( مزيد من المعلومات)أداء محسّن للاستدلال المحلي للهواة والمبدعين والمحترفين
دليل البدءكتيبات DGX Spark لأدلة نشر vLLM وOllama وUnsloth وllama.cpp
NeMo Automodel لدليل الضبط الدقيق على Spark
مختبر Jetson AI للبرامج التعليمية وحاويات Gemma المخصصةمرآب RTX AI لأدلة Ollama وllama.cpp. يمكن لمالكي RTX Pro استخدام vLLM أيضًا.

الجدول 2. مقارنة خيارات النشر المحلية عبر منصات NVIDIA، مع تسليط الضوء على حالات الاستخدام الأساسية، والقدرات الرئيسية، والموارد الموصى بها للبدء لأنظمة DGX Spark وJetson وRTX / RTX PRO التي تشغل نماذج Gemma 4.

بناء مسارات عمل ذكاء اصطناعي آمنة وجاهزة للمؤسسات

لمطوري الذكاء الاصطناعي والمتحمسين، توفر NVIDIA DGX Spark، التي تضم شريحة GB10 Grace Blackwell الفائقة و128 جيجابايت من الذاكرة الموحدة، موارد لا مثيل لها. تعد هذه المنصة القوية مثالية لتشغيل نموذج Gemma 4 31B بأوزان BF16، مما يتيح النمذجة الأولية الفعالة وبناء مسارات عمل الذكاء الاصطناعي الموجهة بالوكلاء المعقدة مع ضمان التنفيذ الخاص والآمن على الجهاز. يوفر نظام التشغيل DGX Linux ومكدس برامج NVIDIA الكامل بيئة تطوير سلسة.

يعمل محرك الاستدلال vLLM، المصمم لخدمة نماذج اللغة الكبيرة (LLM) ذات الإنتاجية العالية، على زيادة الكفاءة وتقليل استخدام الذاكرة على DGX Spark. يوفر هذا المزيج منصة عالية الأداء لنشر أكبر نماذج Gemma 4. يمكن للمطورين الاستفادة من كتيب vLLM للاستدلال على DGX Spark أو البدء باستخدام Ollama أو llama.cpp. علاوة على ذلك، يتيح NeMo Automodel الضبط الدقيق لهذه النماذج مباشرة على DGX Spark.

لمستخدمي المؤسسات، توفر NVIDIA NIM مسارًا للنشر الجاهز للإنتاج. يمكن للمطورين إنشاء نموذج أولي لـ Gemma 4 31B باستخدام واجهة برمجة تطبيقات NIM المستضافة من NVIDIA من كتالوج NVIDIA API. للإنتاج على نطاق واسع، تتوفر الخدمات المصغرة NIM المعبأة مسبقًا والمحسّنة للنشر الآمن والمستضاف ذاتيًا، مدعومة بترخيص NVIDIA Enterprise. يضمن هذا أن تتمكن المؤسسات من نشر حلول الذكاء الاصطناعي القوية بثقة، وتلبية متطلبات الأمان والتشغيل الصارمة.

تمكين وكلاء الذكاء الاصطناعي الماديين باستخدام NVIDIA Jetson

تتقدم قدرات وكلاء الذكاء الاصطناعي الماديين الحديثين بسرعة، ويرجع ذلك إلى حد كبير إلى نماذج Gemma 4 التي تدمج الصوت المتطور والإدراك متعدد الوسائط والتفكير العميق. تمكّن هذه النماذج المتقدمة أنظمة الروبوتات من تجاوز تنفيذ المهام المبسطة، وتمنحها القدرة على فهم الكلام، وتفسير السياق البصري، والتفكير بذكاء قبل التصرف.

على منصات NVIDIA Jetson، يمكن للمطورين إجراء استدلال Gemma 4 على الحافة باستخدام llama.cpp وvLLM. يدعم Jetson Orin Nano، على سبيل المثال، متغيرات Gemma 4 E2B وE4B، مما يسهل الاستدلال متعدد الوسائط على الأنظمة الصغيرة والمدمجة ومحدودة الطاقة. تمتد قدرة التوسع هذه عبر منصة Jetson بأكملها، وصولاً إلى Jetson Thor الهائل، مما يسمح بنشر نموذج متسق بغض النظر عن بصمة الأجهزة. وهذا أمر بالغ الأهمية للتطبيقات في الروبوتات والآلات الذكية والأتمتة الصناعية حيث يكون الأداء منخفض زمن الوصول والذكاء على الجهاز ذا أهمية قصوى. يمكن للمطورين المهتمين باستكشاف هذه القدرات العثور على برامج تعليمية وحاويات Gemma مخصصة على مختبر Jetson AI.

التخصيص وإمكانية الوصول التجاري باستخدام NVIDIA NeMo

لضمان إمكانية تكييف نماذج Gemma 4 لتطبيقات محددة ومجموعات بيانات خاصة، تقدم NVIDIA إمكانيات ضبط دقيق قوية من خلال إطار عمل NVIDIA NeMo. تجمع مكتبة NeMo Automodel، على وجه الخصوص، بين سهولة استخدام PyTorch الأصلي والأداء المحسّن، مما يجعل عملية التخصيص سهلة وفعالة.

يمكن للمطورين الاستفادة من تقنيات مثل الضبط الدقيق الخاضع للإشراف (SFT) وLoRA (التكيف منخفض الرتبة) الفعال من حيث الذاكرة لإجراء الضبط الدقيق منذ اليوم الأول. تبدأ هذه العملية مباشرة من نقاط فحص نموذج Gemma 4 المتاحة على Hugging Face، مما يلغي الحاجة إلى خطوات تحويل معقدة. تتيح هذه المرونة للمؤسسات والباحثين تزويد نماذج Gemma 4 بالمعرفة الخاصة بالمجال، مما يضمن دقة عالية وملاءمة للمهام المتخصصة.

تتوفر نماذج Gemma 4 بسهولة عبر منصة NVIDIA AI بأكملها وتقدم بموجب ترخيص Apache 2.0 الصديق للاستخدام التجاري. يسهل هذا الترخيص مفتوح المصدر التبني الواسع والاندماج في المنتجات والخدمات التجارية، مما يمكّن المطورين في جميع أنحاء العالم من الابتكار باستخدام الذكاء الاصطناعي المتطور. من أداء Blackwell إلى انتشار منصات Jetson، من المقرر أن تقرب Gemma 4 الذكاء الاصطناعي المتقدم إلى كل مطور وكل جهاز.

الأسئلة الشائعة

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

ابقَ على اطلاع

احصل على آخر أخبار الذكاء الاصطناعي في بريدك.

مشاركة