Meta के MTIA चिप्स के साथ AI अनुभवों को स्केल करना
हर दिन, Meta के विविध प्लेटफॉर्म पर अरबों लोग AI-संचालित सुविधाओं की एक विशाल श्रृंखला के साथ बातचीत करते हैं, व्यक्तिगत सामग्री सिफारिशों से लेकर उन्नत AI सहायकों तक। Meta के लिए, और वास्तव में उद्योग के लिए, अंतर्निहित चुनौती इन परिष्कृत AI मॉडलों को वैश्विक स्तर पर तैनात करना और लगातार सुधारना है, जबकि इष्टतम लागत-दक्षता बनाए रखना भी है। इस चुनौतीपूर्ण अवसंरचना कार्य को Meta के लचीले, लगातार विकसित होने वाले समाधानों में रणनीतिक निवेश द्वारा पूरा किया जाता है, जिसके केंद्र में उनके कस्टम-डिज़ाइन किए गए AI चिप्स हैं: Meta ट्रेनिंग एंड इन्फरेंस एक्सेलेरेटर (MTIA) परिवार।
जबकि एक विविध सिलिकॉन पोर्टफोलियो के लिए प्रतिबद्ध है जो आंतरिक और बाहरी दोनों समाधानों का लाभ उठाता है, MTIA चिप्स, जो ब्रॉडकॉम के साथ घनिष्ठ साझेदारी में विकसित किए गए हैं, Meta की AI अवसंरचना रणनीति का एक अनिवार्य घटक हैं। ये स्वदेशी त्वरक AI अनुभवों को लागत-प्रभावी ढंग से शक्ति प्रदान करने के लिए महत्वपूर्ण हैं जो अरबों तक पहुंचते हैं, AI मॉडलों के तेजी से विकसित हो रहे परिदृश्य के अनुकूल लगातार ढलते रहते हैं।
Meta के MTIA चिप्स का पुनरावृत्तीय विकास
AI मॉडल परिदृश्य निरंतर परिवर्तन की स्थिति में है, एक ऐसी गति से विकसित हो रहा है जो अक्सर पारंपरिक चिप विकास चक्रों को पछाड़ देता है। यह पहचानते हुए कि अनुमानित वर्कलोड पर आधारित चिप डिज़ाइन तब तक पुराने हो सकते हैं जब तक हार्डवेयर उत्पादन तक पहुंचता है, Meta ने MTIA के लिए एक अभिनव "गति रणनीति" को अपनाया है। लंबी, सट्टा विकास अवधि के बजाय, Meta एक पुनरावृत्तीय दृष्टिकोण अपनाता है जहां प्रत्येक MTIA पीढ़ी पिछले वाले पर आधारित होती है। इसमें मॉड्यूलर चिपलेट्स का उपयोग करना, नवीनतम AI वर्कलोड अंतर्दृष्टि को शामिल करना और नई हार्डवेयर प्रौद्योगिकियों को काफी कम समय में तैनात करना शामिल है। यह मजबूत प्रतिक्रिया लूप सुनिश्चित करता है कि Meta का कस्टम सिलिकॉन AI मॉडलों की गतिशील मांगों के साथ निकटता से संरेखित रहे, जिससे नई प्रगति को तेजी से अपनाने में मदद मिलती है।
Meta ने पहले ही अकादमिक पत्रों में पहली दो पीढ़ियों, MTIA 100 और MTIA 200 का विवरण दिया है। इस नींव पर निर्माण करते हुए, Meta ने चार नई क्रमिक पीढ़ियों को पेश करने के लिए विकास में तेजी लाई है: MTIA 300, 400, 450, और 500। ये चिप्स या तो पहले से ही उत्पादन में हैं या 2026 और 2027 में बड़े पैमाने पर तैनाती के लिए निर्धारित हैं। इस तीव्र उत्तराधिकार ने Meta को MTIA के वर्कलोड कवरेज का महत्वपूर्ण रूप से विस्तार करने की अनुमति दी है, प्रारंभिक रैंकिंग और सिफारिश (R&R) अनुमान से R&R प्रशिक्षण, सामान्य जनरेटिव AI (GenAI) वर्कलोड, और अत्यधिक अनुकूलित GenAI अनुमान तक जा रहा है।
MTIA 300: AI वर्कलोड के लिए नींव रखना
MTIA 300 ने Meta की कस्टम सिलिकॉन यात्रा में एक महत्वपूर्ण कदम चिह्नित किया। शुरू में R&R मॉडलों के लिए अनुकूलित किया गया था, जो GenAI बूम से पहले Meta के प्रमुख वर्कलोड थे, इसके वास्तुशिल्प बिल्डिंग ब्लॉक ने बाद के चिप्स के लिए एक मजबूत नींव स्थापित की। MTIA 300 की प्रमुख विशिष्ट विशेषताओं में एकीकृत NIC चिपलेट्स, संचार सामूहिकों को ऑफलोड करने के लिए समर्पित संदेश इंजन, और कमी-आधारित सामूहिकों के लिए डिज़ाइन की गई निकट-मेमोरी कंप्यूट क्षमताएं शामिल हैं। ये कम-विलंबता, उच्च-बैंडविड्थ संचार घटक बाद की पीढ़ियों में कुशल GenAI अनुमान और प्रशिक्षण को सक्षम करने में महत्वपूर्ण साबित हुए।
MTIA 300 में एक कंप्यूट चिपलेट, दो नेटवर्क चिपलेट, और कई हाई-बैंडविड्थ मेमोरी (HBM) स्टैक शामिल हैं। प्रत्येक कंप्यूट चिपलेट में प्रोसेसिंग तत्वों (PEs) का एक ग्रिड होता है, जिसे उपज बढ़ाने के लिए निरर्थक PEs के साथ रणनीतिक रूप से डिज़ाइन किया गया है। प्रत्येक PE एक परिष्कृत इकाई है जिसमें दो RISC-V वेक्टर कोर, मैट्रिक्स गुणन के लिए एक डॉट प्रोडक्ट इंजन, सक्रियण और तत्व-वार संचालन के लिए एक विशेष कार्य इकाई, संचय और इंटर-PE संचार के लिए एक कमी इंजन, और स्थानीय स्क्रैच मेमोरी के भीतर कुशल डेटा आंदोलन के लिए एक DMA इंजन होता है। इस जटिल डिज़ाइन ने Meta की अपने मुख्य AI कार्यों के लिए एक अत्यधिक कुशल और लागत प्रभावी समाधान बनाने की प्रतिबद्धता को रेखांकित किया।
MTIA 400: प्रतिस्पर्धी GenAI प्रदर्शन प्राप्त करना
जनरेटिव AI में अभूतपूर्व वृद्धि के साथ, Meta ने GenAI वर्कलोड के लिए मौजूदा R&R क्षमताओं के साथ मजबूत समर्थन प्रदान करने के लिए MTIA 300 को MTIA 400 में तेजी से विकसित किया। MTIA 400 एक महत्वपूर्ण छलांग का प्रतिनिधित्व करता है, जो अपने पूर्ववर्ती की तुलना में 400% अधिक FP8 FLOPS और HBM बैंडविड्थ में 51% वृद्धि प्रदान करता है। जबकि MTIA 300 लागत-प्रभावशीलता पर केंद्रित था, MTIA 400 को अग्रणी वाणिज्यिक AI त्वरक के साथ प्रतिस्पर्धी कच्चा प्रदर्शन प्रदान करने के लिए डिज़ाइन किया गया था।
यह दो कंप्यूट चिपलेट्स को प्रभावी ढंग से कंप्यूट घनत्व को दोगुना करने के लिए जोड़कर और MX8 और MX4 के उन्नत संस्करणों का समर्थन करके इसे प्राप्त करता है, जो कुशल GenAI अनुमान के लिए महत्वपूर्ण कम-प्रेसिजन प्रारूप हैं। 72 MTIA 400 उपकरणों से सुसज्जित एक सिंगल रैक, जो एक स्विच किए गए बैकप्लेन के माध्यम से इंटरकनेक्टेड है, एक शक्तिशाली स्केल-अप डोमेन बनाता है। इन प्रणालियों को उन्नत एयर-असिस्टेड लिक्विड कूलिंग (AALC) रैक द्वारा समर्थित किया जाता है, जिससे विरासत डेटा केंद्रों में भी तेजी से तैनाती की सुविधा मिलती है, जो Meta के अपने AI अवसंरचना को विश्व स्तर पर स्केल करने के लिए व्यावहारिक दृष्टिकोण को दर्शाता है।
MTIA 450 और 500: GenAI अनुमान के लिए विशेष
GenAI अनुमान की मांग में निरंतर घातीय वृद्धि की प्रत्याशा में, Meta ने MTIA 400 को और परिष्कृत किया, जिससे MTIA 450 और बाद में MTIA 500 का विकास हुआ। ये पीढ़ियां विशेष रूप से GenAI अनुमान की अनूठी चुनौतियों के लिए अनुकूलित हैं, जो मेमोरी और कंप्यूट में महत्वपूर्ण प्रगति पर ध्यान केंद्रित करती हैं।
MTIA 450 ने महत्वपूर्ण प्रगति की:
- पूर्व संस्करण से HBM बैंडविड्थ को दोगुना करना, जो GenAI मॉडलों में डिकोड चरण को तेज करने के लिए महत्वपूर्ण है।
- MX4 FLOPS को 75% बढ़ाना, जो बड़े भाषा मॉडलों में सामान्य मिश्रण-ऑफ-एक्सपर्ट्स (MoE) फीड-फॉरवर्ड नेटवर्क (FFN) गणनाओं को गति देता है।
- ध्यान और FFN गणनाओं को अधिक कुशल बनाने के लिए हार्डवेयर त्वरण पेश करना, Softmax और FlashAttention से जुड़े बाधाओं को कम करना।
- कम-प्रेसिजन डेटा प्रकारों में नवाचार करना, FP8/MX8 से परे जाकर FP16/BF16 के MX4 FLOPS का 6 गुना प्रदान करना, कस्टम डेटा-प्रकार नवाचारों के साथ जो मॉडल गुणवत्ता को बनाए रखते हैं और न्यूनतम चिप क्षेत्र प्रभाव के साथ FLOPS को बढ़ावा देते हैं।
MTIA 500, 450 की सफलता पर निर्माण करते हुए, HBM बैंडविड्थ को अतिरिक्त 50% तक बढ़ाया और कम-प्रेसिजन डेटा प्रकारों में अधिक नवाचारों को पेश किया, जो GenAI अनुमान प्रदर्शन की सीमाओं को आगे बढ़ाने के लिए Meta की प्रतिबद्धता को मजबूत करता है। सुधार के लिए यह अथक प्रयास सुनिश्चित करता है कि Meta के AI अनुभव अत्याधुनिक बने रहें।
इन पीढ़ियों में संचयी प्रगति स्पष्ट है। MTIA 300 से MTIA 500 तक, HBM बैंडविड्थ में प्रभावशाली 4.5 गुना वृद्धि हुई है, जबकि कंप्यूट FLOPS में आश्चर्यजनक 25 गुना वृद्धि देखी गई है (MTIA 300 के MX8 से MTIA 500 के MX4 तक)। दो साल के भीतर यह तीव्र त्वरण Meta की वेग रणनीति और उसके कस्टम सिलिकॉन को लगातार बढ़ाने की क्षमता का एक वसीयतनामा है। यह विकास एजेंटिक AI को परिचालन में लाने और बड़े पैमाने पर अन्य जटिल मॉडलों के लिए केंद्रीय है।
यहां MTIA परिवार में प्रमुख विशिष्टताओं का एक विवरण दिया गया है:
| विशेषता | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| कंप्यूट डाई | 1 | 2 | 2 | 2 |
| HBM स्टैक | 4 | 4 | 8 | 8 |
| HBM बैंडविड्थ (GB/s)* | 100 | 151 | 302 | 453 |
| MX8 FLOPS (TFLOPS) | 100 | 400 | 400 | 400 |
| MX4 FLOPS (TFLOPS) | उपलब्ध नहीं | 200 | 350 | 500 |
| स्केल-अप डोमेन आकार | 18 उपकरण** | 72 उपकरण | 72 उपकरण | 72 उपकरण |
| प्रमुख अनुकूलन | R&R प्रशिक्षण, कम-विलंबता संचार | सामान्य GenAI, प्रतिस्पर्धी कच्चा प्रदर्शन | GenAI अनुमान, HBM, कस्टम कम-प्रेसिजन | GenAI अनुमान, HBM, कस्टम कम-प्रेसिजन |
*कुछ विक्रेता द्विदिश बैंडविड्थ की रिपोर्ट करते हैं। संबंधित द्विदिश बैंडविड्थ प्राप्त करने के लिए तालिका में दिए गए मान को दो से गुणा करें। **MTIA 300 को अपने अपेक्षाकृत छोटे स्केल-अप डोमेन आकार और लक्ष्य R&R वर्कलोड के कारण उच्च बैंडविड्थ (200 GB/s) वाले स्केल-आउट नेटवर्क के साथ कॉन्फ़िगर किया गया है।
ये विनिर्देश मेमोरी बैंडविड्थ और कंप्यूट शक्ति में नाटकीय सुधारों को उजागर करते हैं, यह प्रदर्शित करते हुए कि प्रत्येक MTIA पीढ़ी को वर्तमान और भविष्य के AI अनुप्रयोगों, विशेष रूप से संसाधन-गहन GenAI मॉडलों की सबसे अधिक दबाव वाली मांगों को पूरा करने के लिए सावधानीपूर्वक कैसे इंजीनियर किया गया है।
MTIA परिवार के माध्यम से कस्टम सिलिकॉन समाधानों की Meta की अथक खोज अरबों उपयोगकर्ताओं को विश्व स्तर पर अत्याधुनिक AI अनुभव प्रदान करने की उसकी प्रतिबद्धता को रेखांकित करती है। आंतरिक नवाचार को रणनीतिक साझेदारियों के साथ जोड़कर, Meta स्केलेबल और लागत प्रभावी AI अवसंरचना की संभावनाओं को फिर से परिभाषित करना जारी रखता है।
अक्सर पूछे जाने वाले प्रश्न
What are Meta MTIA chips and what is their purpose?
How many generations of MTIA chips has Meta developed in recent years?
What is Meta's 'velocity strategy' for AI chip development?
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
What are the key performance advancements from MTIA 300 to MTIA 500?
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
अपडेट रहें
नवीनतम AI समाचार अपने इनबॉक्स में पाएं।
