title: "رقائق MTIA من Meta توسع نطاق الذكاء الاصطناعي لمليارات المستخدمين" slug: "meta-mtia-scale-ai-chips-for-billions" date: "2026-03-14" lang: "ar" source: "https://ai.meta.com/blog/meta-mtia-scale-ai-chips-for-billions/" category: "الذكاء الاصطناعي للمؤسسات" keywords:
- Meta
- MTIA
- رقائق الذكاء الاصطناعي
- الذكاء الاصطناعي التوليدي
- أجهزة الاستدلال
- سيليكون مخصص
- مراكز البيانات
- Llama
- عرض نطاق HBM
- أنواع البيانات منخفضة الدقة
- البنية التحتية للذكاء الاصطناعي
- أعباء عمل الترتيب والتوصية meta_description: 'تتطور رقائق الذكاء الاصطناعي MTIA من Meta بسرعة، مع أربعة أجيال في عامين، لتوسيع نطاق تجارب الذكاء الاصطناعي التوليدي (GenAI) والترتيب والتوصية (R&R) لمليارات المستخدمين بكفاءة.' image: "/images/articles/meta-mtia-scale-ai-chips-for-billions.png" image_alt: "رقائق الذكاء الاصطناعي MTIA من Meta على لوحة خادم في رف بمركز بيانات" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Meta schema_type: "NewsArticle" reading_time: 7 faq:
- question: "ما هي رقائق MTIA من Meta وما هو الغرض منها؟" answer: 'رقائق Meta Training and Inference Accelerator (MTIA) هي مسرعات ذكاء اصطناعي مصممة خصيصًا طورتها Meta بالشراكة مع Broadcom. غرضها الأساسي هو تشغيل مجموعة واسعة من التجارب المدعومة بالذكاء الاصطناعي عبر منصات Meta لمليارات المستخدمين. يشمل هذا كل شيء بدءًا من التوصيات المخصصة (R&R) وصولًا إلى مساعدي الذكاء الاصطناعي التوليدي (GenAI) المتقدمين. من خلال تطوير سيليكون خاص بها، تهدف Meta إلى توسيع نطاق أعباء عمل الذكاء الاصطناعي بشكل فعال من حيث التكلفة، والحفاظ على المرونة، وتحسين الأداء لاحتياجات بنيتها التحتية المحددة، مما يضمن الابتكار المستمر في تطوير أجهزة الذكاء الاصطناعي.'
- question: "كم عدد أجيال رقائق MTIA التي طورتها Meta في السنوات الأخيرة؟" answer: 'قامت Meta بتسريع تطوير MTIA بسرعة، حيث قدمت أربعة أجيال متتالية في أقل من عامين: MTIA 300 و MTIA 400 و MTIA 450 و MTIA 500. هذه الرقائق إما تم نشرها بالفعل أو من المقرر نشرها على نطاق واسع في عام 2026 أو 2027. يعرض هذا التكرار السريع "استراتيجية السرعة" لـ Meta، المصممة لمواكبة التطور السريع بشكل استثنائي لنماذج الذكاء الاصطناعي وضمان بقاء أجهزتها متوافقة مع متطلبات أعباء العمل الحالية والمستقبلية، متوسعةً إلى ما وراء مهام الترتيب والتوصية (R&R) الأولية لتشمل الاستدلال العام للذكاء الاصطناعي التوليدي (GenAI) والاستدلال المتخصص للذكاء الاصطناعي التوليدي.'
- question: "ما هي 'استراتيجية السرعة' لـ Meta لتطوير رقائق الذكاء الاصطناعي؟" answer: 'تُعد "استراتيجية السرعة" لـ Meta منهجًا تكراريًا لتطوير رقائق الذكاء الاصطناعي يتناقض مع دورات تصميم الرقائق التقليدية الأطول. إدراكًا أن نماذج الذكاء الاصطناعي تتطور بشكل أسرع من تطوير الأجهزة النموذجي، تصمم Meta كل جيل من MTIA للبناء على الجيل السابق باستخدام رقائق معيارية. تتضمن هذه الاستراتيجية أحدث رؤى أعباء عمل الذكاء الاصطناعي وتقنيات الأجهزة، مما يتيح النشر بوتيرة أقصر. تضمن حلقة التغذية الراجعة الأكثر إحكامًا هذه أن تظل أجهزة Meta المخصصة متوافقة بشكل وثيق مع نماذج الذكاء الاصطناعي المتطورة، مما يسهل التبني الأسرع للتقنيات الجديدة ويحافظ على الأداء الأمثل والكفاءة من حيث التكلفة.'
- question: "كيف تدعم رقائق MTIA الأحدث (400، 450، 500) أعباء عمل الذكاء الاصطناعي التوليدي؟" answer: 'مع ظهور الذكاء الاصطناعي التوليدي، تطورت رقائق MTIA بشكل كبير لدعم أعباء العمل المطلوبة هذه. عزز MTIA 400 دعم الذكاء الاصطناعي التوليدي بزيادة 400% في FLOPS بنقطة عائمة بدقة 8 بت (FP8) وزيادة عرض نطاق HBM. تم تحسين MTIA 450 خصيصًا للاستدلال بالذكاء الاصطناعي التوليدي عن طريق مضاعفة عرض نطاق HBM، وزيادة MX4 FLOPS بنسبة 75%، وإدخال تسريع الأجهزة لحسابات الانتباه (attention) وشبكة التغذية الأمامية (FFN)، والابتكار بأنواع بيانات مخصصة منخفضة الدقة. عزز MTIA 500 ذلك بشكل أكبر، حيث زاد عرض نطاق HBM بنسبة 50% إضافية وقدم المزيد من الابتكارات منخفضة الدقة، معالجةً مباشرةً لمتطلبات الحوسبة والذاكرة لنماذج الذكاء الاصطناعي التوليدي المعقدة.'
- question: "ما هي التطورات الرئيسية في الأداء من MTIA 300 إلى MTIA 500؟" answer: 'شهدت عائلة رقائق MTIA تطورات ملحوظة من سلسلة 300 إلى سلسلة 500 في أقل من عامين. زاد عرض نطاق HBM بمقدار 4.5 مرة، مما يعزز بشكل كبير سرعة الوصول إلى الذاكرة الضرورية لنماذج الذكاء الاصطناعي الكبيرة. شهدت عمليات النقطة العائمة في الثانية (FLOPS) زيادة مذهلة بمقدار 25 ضعفًا، خاصة من MTIA 300 MX8 إلى MTIA 500 MX4. تؤكد هذه التحسينات الدراماتيكية قدرة Meta على تعزيز قوة المعالجة الخام وقدرات معالجة البيانات لرقائقها المخصصة بسرعة لتلبية المتطلبات المتزايدة لنماذج الذكاء الاصطناعي المتقدمة.'
- question: "لماذا يعد High-Bandwidth Memory (HBM) مهمًا لأداء استدلال الذكاء الاصطناعي التوليدي؟" answer: 'تعتبر ذاكرة النطاق الترددي العالي (HBM) ذات أهمية بالغة لأداء استدلال الذكاء الاصطناعي التوليدي (GenAI) لأن نماذج الذكاء الاصطناعي التوليدي، خاصة نماذج اللغة الكبيرة (LLMs)، عادة ما تحتوي على أعداد هائلة من المعلمات وتتطلب نطاقًا تردديًا كبيرًا للذاكرة لاسترجاع هذه المعلمات ومعالجتها بكفاءة أثناء الاستدلال. غالبًا ما يكون خطوة فك التشفير في استدلال الذكاء الاصطناعي التوليدي، التي تولد الرموز بالتتابع، مقيدة بالوصول إلى الذاكرة بدلاً من الحوسبة الخام. إن مضاعفة أو زيادة عرض نطاق HBM بشكل كبير، كما هو الحال في MTIA 450 و 500، يترجم مباشرة إلى توليد أسرع للرموز، وتقليل زمن الانتقال، وزيادة الإنتاجية، مما يجعل تجارب الذكاء الاصطناعي أكثر استجابة وكفاءة للمستخدمين.'
توسيع نطاق تجارب الذكاء الاصطناعي باستخدام رقائق MTIA من Meta
كل يوم، يتفاعل مليارات الأشخاص عبر منصات Meta المتنوعة مع عدد لا يحصى من الميزات المدعومة بالذكاء الاصطناعي، بدءًا من توصيات المحتوى المخصصة وصولاً إلى مساعدي الذكاء الاصطناعي المتقدمين. يكمن التحدي الأساسي لـ Meta، بل وللصناعة بأكملها، في نشر هذه النماذج المتطورة للذكاء الاصطناعي وتحسينها باستمرار على نطاق عالمي، مع الحفاظ على الكفاءة المثلى للتكلفة. يتم تلبية مهمة البنية التحتية الشاقة هذه من خلال استثمار Meta الاستراتيجي في حلول مرنة ومتطورة باستمرار، والتي تتمحور حول رقائق الذكاء الاصطناعي المصممة خصيصًا: عائلة Meta Training and Inference Accelerator (MTIA).
بينما تلتزم Meta بمحفظة متنوعة من السيليكون تستفيد من الحلول الداخلية والخارجية على حد سواء، فإن رقائق MTIA، التي تم تطويرها بالشراكة الوثيقة مع Broadcom، تعد مكونًا لا غنى عنه في استراتيجية Meta للبنية التحتية للذكاء الاصطناعي. تُعد هذه المسرعات المطورة محليًا حاسمة لتشغيل تجارب الذكاء الاصطناعي التي تصل إلى المليارات بكفاءة من حيث التكلفة، وتتكيف باستمرار مع المشهد المتطور بسرعة لنماذج الذكاء الاصطناعي.
التطور التكراري لرقائق MTIA من Meta
يتسم مشهد نماذج الذكاء الاصطناعي بحالة من التغير المستمر، حيث يتطور بوتيرة غالبًا ما تتجاوز دورات تطوير الرقائق التقليدية. إدراكًا منها أن تصاميم الرقائق القائمة على أعباء العمل المتوقعة يمكن أن تصبح قديمة بحلول الوقت الذي يصل فيه الأجهزة إلى الإنتاج، تبنت Meta "استراتيجية سرعة" مبتكرة لـ MTIA. فبدلاً من فترات التطوير الطويلة والتكهنية، تعتمد Meta نهجًا تكراريًا حيث يبني كل جيل من MTIA على سابقه. يتضمن ذلك استخدام وحدات رقائق معيارية (modular chiplets)، ودمج أحدث رؤى أعباء عمل الذكاء الاصطناعي، ونشر تقنيات أجهزة جديدة بوتيرة أقصر بكثير. تضمن حلقة التغذية الراجعة الأكثر إحكامًا هذه أن يظل سيليكون Meta المخصص متوافقًا بشكل وثيق مع المتطلبات الديناميكية لنماذج الذكاء الاصطناعي، مما يعزز التبني الأسرع للتطورات الجديدة.
لقد قدمت Meta بالفعل تفاصيل الجيلين الأولين، MTIA 100 و MTIA 200، في أوراق أكاديمية. بناءً على هذا الأساس، قامت Meta بتسريع التطوير لتقديم أربعة أجيال متتالية جديدة: MTIA 300 و 400 و 450 و 500. هذه الرقائق إما قيد الإنتاج بالفعل أو من المقرر نشرها على نطاق واسع في عامي 2026 و 2027. وقد أتاح هذا التعاقب السريع لـ Meta توسيع نطاق تغطية أعباء عمل MTIA بشكل كبير، متجاوزًا الاستدلال الأولي للترتيب والتوصية (R&R) إلى تدريب R&R، وأعباء عمل الذكاء الاصطناعي التوليدي (GenAI) العامة، والاستدلال بالذكاء الاصطناعي التوليدي المحسّن للغاية.
MTIA 300: إرساء الأساس لأعباء عمل الذكاء الاصطناعي
شكل MTIA 300 خطوة محورية في رحلة Meta مع السيليكون المخصص. فقد تم تحسينه في البداية لنماذج الترتيب والتوصية (R&R)، التي كانت أعباء عمل Meta المهيمنة قبل ازدهار الذكاء الاصطناعي التوليدي (GenAI)، وأرست مكوناته المعمارية أساسًا قويًا للرقائق اللاحقة. تشمل الميزات المميزة الرئيسية لـ MTIA 300 وحدات رقائق NIC مدمجة، ومحركات رسائل مخصصة لتفريغ مهام الاتصالات التجميعية، وقدرات حوسبة قريبة من الذاكرة مصممة للتجمعات القائمة على التخفيض. أثبتت مكونات الاتصال هذه ذات زمن الانتقال المنخفض وعرض النطاق الترددي العالي فعاليتها في تمكين استدلال وتدريب الذكاء الاصطناعي التوليدي بكفاءة في الأجيال اللاحقة.
تتألف MTIA 300 من وحدة رقائق حوسبة واحدة، ووحدتي رقائق شبكة، وعدة مكدسات من ذاكرة النطاق الترددي العالي (HBM). تتميز كل وحدة رقائق حوسبة بشبكة من عناصر المعالجة (PEs)، مصممة استراتيجيًا بعناصر معالجة احتياطية لتعزيز الإنتاجية. كل عنصر معالجة (PE) هو وحدة متطورة تحتوي على نواتين متجهتين من نوع RISC-V، ومحرك ضرب نقطي (Dot Product Engine) لضرب المصفوفات، ووحدة وظائف خاصة (Special Function Unit) لعمليات التنشيط والعمليات العنصرية، ومحرك تخفيض (Reduction Engine) للتراكم والاتصال بين عناصر المعالجة، ومحرك DMA لحركة البيانات الفعالة داخل الذاكرة المؤقتة المحلية. يؤكد هذا التصميم المعقد التزام Meta بإنشاء حل عالي الكفاءة وفعال من حيث التكلفة لمهام الذكاء الاصطناعي الأساسية لديها.
MTIA 400: تحقيق أداء تنافسي في الذكاء الاصطناعي التوليدي
مع الارتفاع غير المسبوق في الذكاء الاصطناعي التوليدي، طورت Meta بسرعة MTIA 300 إلى MTIA 400 لتوفير دعم قوي لأعباء عمل الذكاء الاصطناعي التوليدي جنبًا إلى جنب مع قدراتها الحالية في الترتيب والتوصية (R&R). يمثل MTIA 400 قفزة كبيرة، حيث يوفر 400% أعلى في عمليات النقطة العائمة بدقة 8 بت (FP8 FLOPS) وزيادة بنسبة 51% في عرض نطاق HBM مقارنة بسابقه. بينما ركز MTIA 300 على الفعالية من حيث التكلفة، تم تصميم MTIA 400 لتقديم أداء خام تنافسي مع مسرعات الذكاء الاصطناعي التجارية الرائدة.
ويحقق ذلك من خلال الجمع بين وحدتي حوسبة رقائق لمضاعفة كثافة الحوسبة بشكل فعال ودعم إصدارات محسنة من MX8 و MX4، وهي تنسيقات حاسمة منخفضة الدقة للاستدلال الفعال بالذكاء الاصطناعي التوليدي. يشكل رف واحد مجهز بـ 72 جهاز MTIA 400، متصلة عبر لوحة خلفية محولة (switched backplane)، نطاق توسع قوي. تدعم هذه الأنظمة رفوف تبريد سائل بمساعدة الهواء (AALC) متقدمة، مما يسهل النشر السريع حتى في مراكز البيانات القديمة، مما يعرض النهج العملي لـ Meta لتوسيع بنيتها التحتية للذكاء الاصطناعي عالميًا.
MTIA 450 و 500: متخصصة في استدلال الذكاء الاصطناعي التوليدي
توقعًا للنمو الأسي المستمر في الطلب على استدلال الذكاء الاصطناعي التوليدي، قامت Meta بزيادة تحسين MTIA 400، مما أدى إلى تطوير MTIA 450 ثم MTIA 500. تم تحسين هذه الأجيال خصيصًا للتحديات الفريدة لاستدلال الذكاء الاصطناعي التوليدي، مع التركيز على التطورات الحاسمة في الذاكرة والحوسبة.
حقق MTIA 450 خطوات كبيرة من خلال:
- مضاعفة عرض نطاق HBM من الإصدار السابق، وهو أمر بالغ الأهمية لتسريع مرحلة فك التشفير في نماذج الذكاء الاصطناعي التوليدي.
- زيادة MX4 FLOPS بنسبة 75%، مما يسرّع حسابات شبكة التغذية الأمامية (FFN) لمزيج الخبراء (MoE) الشائعة في نماذج اللغة الكبيرة.
- إدخال تسريع الأجهزة لجعل حسابات الانتباه (attention) وشبكة التغذية الأمامية (FFN) أكثر كفاءة، وتخفيف الاختناقات المرتبطة بـ Softmax و FlashAttention.
- الابتكار في أنواع البيانات منخفضة الدقة، متجاوزًا FP8/MX8 لتقديم 6 أضعاف MX4 FLOPS مقارنة بـ FP16/BF16، مع ابتكارات في أنواع البيانات المخصصة التي تحافظ على جودة النموذج وتزيد من FLOPS بأقل تأثير على مساحة الرقاقة.
MTIA 500، بناءً على نجاح 450، زاد عرض نطاق HBM بنسبة 50% إضافية وقدم المزيد من الابتكارات في أنواع البيانات منخفضة الدقة، مما يعزز التزام Meta بدفع حدود أداء استدلال الذكاء الاصطناعي التوليدي. يضمن هذا الدافع المستمر للتحسين بقاء تجارب الذكاء الاصطناعي من Meta في طليعة التطور.
إن التطورات التراكمية عبر هذه الأجيال واضحة. فمن MTIA 300 إلى MTIA 500، زاد عرض نطاق HBM بمقدار 4.5 مرة بشكل مثير للإعجاب، بينما شهدت عمليات النقطة العائمة في الثانية (FLOPS) زيادة مذهلة بمقدار 25 ضعفًا (من MX8 في MTIA 300 إلى MX4 في MTIA 500). يمثل هذا التسارع السريع في غضون عامين شهادة على استراتيجية السرعة لـ Meta وقدرتها على تعزيز سيليكونها المخصص باستمرار. هذا التطور أساسي لـ تفعيل الذكاء الاصطناعي الوكيل والنماذج المعقدة الأخرى على نطاق واسع.
فيما يلي تفصيل للمواصفات الرئيسية لعائلة MTIA:
| Feature | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| Compute Die | 1 | 2 | 2 | 2 |
| HBM Stacks | 4 | 4 | 8 | 8 |
| HBM Bandwidth (GB/s)* | 100 | 151 | 302 | 453 |
| MX8 FLOPS (TFLOPS) | 100 | 400 | 400 | 400 |
| MX4 FLOPS (TFLOPS) | N/A | 200 | 350 | 500 |
| Scale-up Domain Size | 18 devices** | 72 devices | 72 devices | 72 devices |
| Key Optimization | R&R training, low-latency communication | General GenAI, competitive raw perf. | GenAI inference, HBM, custom low-prec. | GenAI inference, HBM, custom low-prec. |
*يقوم بعض البائعين بالإبلاغ عن عرض النطاق الترددي ثنائي الاتجاه. اضرب القيمة في الجدول باثنين للحصول على عرض النطاق الترددي ثنائي الاتجاه المقابل. **تم تكوين MTIA 300 بشبكة توسيع نطاق (scale-out) ذات عرض نطاق ترددي أعلى (200 جيجابايت/ثانية) نظرًا لحجم نطاق التوسع الصغير نسبيًا وأعباء عمل الترتيب والتوصية (R&R) المستهدفة.
تسلط هذه المواصفات الضوء على التحسينات الهائلة في عرض نطاق الذاكرة وقوة الحوسبة، مما يوضح كيف يتم تصميم كل جيل من MTIA بدقة لتلبية المتطلبات الأكثر إلحاحًا لتطبيقات الذكاء الاصطناعي الحالية والمستقبلية، وخاصة نماذج الذكاء الاصطناعي التوليدي التي تستهلك الكثير من الموارد.
يؤكد سعي Meta الدؤوب لحلول السيليكون المخصصة عبر عائلة MTIA التزامها بتقديم تجارب ذكاء اصطناعي متطورة لمليارات المستخدمين حول العالم. من خلال الجمع بين الابتكار الداخلي والشراكات الاستراتيجية، تواصل Meta إعادة تعريف إمكانيات البنية التحتية للذكاء الاصطناعي القابلة للتطوير والفعالة من حيث التكلفة.
الأسئلة الشائعة
What are Meta MTIA chips and what is their purpose?
How many generations of MTIA chips has Meta developed in recent years?
What is Meta's 'velocity strategy' for AI chip development?
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
What are the key performance advancements from MTIA 300 to MTIA 500?
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
ابقَ على اطلاع
احصل على آخر أخبار الذكاء الاصطناعي في بريدك.
