میٹا کے MTIA چپس کے ساتھ AI تجربات کو وسعت دینا
ہر روز، میٹا کے متنوع پلیٹ فارمز پر اربوں لوگ AI سے چلنے والی بے شمار خصوصیات کے ساتھ تعامل کرتے ہیں، ذاتی نوعیت کی مواد کی سفارشات سے لے کر جدید AI اسسٹنٹس تک۔ میٹا، اور درحقیقت صنعت کے لیے، بنیادی چیلنج یہ ہے کہ ان نفیس AI ماڈلز کو عالمی سطح پر تعینات کیا جائے اور انہیں مسلسل بہتر بنایا جائے، یہ سب کچھ بہترین لاگت کی کارکردگی کو برقرار رکھتے ہوئے کیا جائے۔ اس مشکل انفراسٹرکچر کے کام کو میٹا کی لچکدار، مسلسل ترقی پذیر حلوں میں اسٹریٹجک سرمایہ کاری سے پورا کیا جاتا ہے، جس کے مرکز میں ان کے حسب ضرورت ڈیزائن کردہ AI چپس ہیں: میٹا ٹریننگ اینڈ انفرنس ایکسیلریٹر (MTIA) فیملی۔
اگرچہ ایک متنوع سلیکون پورٹ فولیو کے لیے پرعزم ہے جو اندرونی اور بیرونی دونوں حلوں کا فائدہ اٹھاتا ہے، MTIA چپس، جو Broadcom کے ساتھ قریبی شراکت میں تیار کی گئی ہیں، میٹا کی AI انفراسٹرکچر حکمت عملی کا ایک ناگزیر جزو ہیں۔ یہ مقامی طور پر تیار کردہ ایکسیلریٹر اربوں تک پہنچنے والے AI تجربات کو مؤثر طریقے سے طاقتور بنانے کے لیے اہم ہیں، جو AI ماڈلز کے تیزی سے بدلتے ہوئے منظرنامے کے مطابق مسلسل ڈھلتے رہتے ہیں۔
میٹا کے MTIA چپس کا تکراری ارتقاء
AI ماڈل کا منظر نامہ مسلسل تبدیلی کی حالت میں ہے، جو اکثر روایتی چپ کی ترقی کے چکروں سے زیادہ تیزی سے تیار ہوتا ہے۔ یہ تسلیم کرتے ہوئے کہ متوقع ورک لوڈز پر مبنی چپ ڈیزائن اس وقت تک پرانے ہو سکتے ہیں جب تک ہارڈویئر پیداوار تک پہنچتا ہے، میٹا نے MTIA کے لیے ایک اختراعی "رفتار کی حکمت عملی" اپنائی ہے۔ طویل، قیاس آرائی پر مبنی ترقیاتی ادوار کے بجائے، میٹا ایک تکراری طریقہ کار اپناتا ہے جہاں MTIA کی ہر نسل پچھلی نسل پر تعمیر کرتی ہے۔ اس میں ماڈیولر چپلیٹس کا استعمال، تازہ ترین AI ورک لوڈ کی بصیرت کو شامل کرنا، اور نمایاں طور پر کم مدت میں نئی ہارڈویئر ٹیکنالوجیز کو تعینات کرنا شامل ہے۔ یہ سخت فیڈ بیک لوپ اس بات کو یقینی بناتا ہے کہ میٹا کا حسب ضرورت سلیکون AI ماڈلز کی متحرک ضروریات کے ساتھ قریب سے ہم آہنگ رہے، نئی پیشرفتوں کو تیزی سے اپنانے کو فروغ دے۔
میٹا نے پہلے ہی پہلی دو نسلوں، MTIA 100 اور MTIA 200 کو تعلیمی مقالات میں تفصیل سے بیان کیا ہے۔ اس بنیاد پر، میٹا نے ترقی کو تیز کیا ہے تاکہ چار نئی لگاتار نسلیں متعارف کروائی جا سکیں: MTIA 300، 400، 450، اور 500۔ یہ چپس یا تو پہلے ہی پیداوار میں ہیں یا 2026 اور 2027 میں بڑے پیمانے پر تعیناتی کے لیے مقرر ہیں۔ اس تیز رفتار کامیابی نے میٹا کو MTIA کی ورک لوڈ کوریج کو نمایاں طور پر بڑھانے کی اجازت دی ہے، جو ابتدائی رینکنگ اور سفارش (R&R) انفرنس سے R&R ٹریننگ، جنرل جنریٹو AI (GenAI) ورک لوڈز، اور انتہائی بہتر GenAI انفرنس کی طرف بڑھ رہی ہے۔
MTIA 300: AI ورک لوڈز کی بنیاد رکھنا
MTIA 300 نے میٹا کے حسب ضرورت سلیکون کے سفر میں ایک اہم قدم کی نشاندہی کی۔ ابتدائی طور پر R&R ماڈلز کے لیے بہتر بنایا گیا، جو GenAI کے عروج سے پہلے میٹا کے غالب ورک لوڈز تھے، اس کے آرکیٹیکچرل بلڈنگ بلاکس نے بعد کے چپس کے لیے ایک مضبوط بنیاد قائم کی۔ MTIA 300 کی اہم خصوصیات میں مربوط NIC چپلیٹس، کمیونیکیشن کلیکٹیوز کو آف لوڈ کرنے کے لیے مخصوص میسج انجن، اور ریڈکشن پر مبنی کلیکٹیوز کے لیے ڈیزائن کردہ قریب-میموری کمپیوٹ صلاحیتیں شامل ہیں۔ یہ کم تاخیر والے، ہائی-بینڈ وڈتھ مواصلاتی اجزاء بعد کی نسلوں میں مؤثر GenAI انفرنس اور ٹریننگ کو فعال کرنے میں اہم ثابت ہوئے۔
MTIA 300 میں ایک کمپیوٹ چپلیٹ، دو نیٹ ورک چپلیٹس، اور کئی ہائی-بینڈ وڈتھ میموری (HBM) اسٹیکس شامل ہیں۔ ہر کمپیوٹ چپلیٹ میں پروسیسنگ عناصر (PEs) کا ایک گرڈ شامل ہے، جسے پیداوار کو بڑھانے کے لیے اضافی PEs کے ساتھ حکمت عملی کے تحت ڈیزائن کیا گیا ہے۔ ہر PE ایک نفیس یونٹ ہے جس میں دو RISC-V ویکٹر کور، میٹرکس ضرب کے لیے ایک ڈاٹ پروڈکٹ انجن، ایک اسپیشل فنکشن یونٹ ایکٹیویشنز اور ایلیمنٹ وائز آپریشنز کے لیے، جمع کرنے اور انٹر-PE مواصلات کے لیے ایک ریڈکشن انجن، اور مقامی سکریچ میموری کے اندر مؤثر ڈیٹا کی نقل و حرکت کے لیے ایک DMA انجن شامل ہے۔ یہ پیچیدہ ڈیزائن میٹا کے اپنے بنیادی AI کاموں کے لیے ایک انتہائی موثر اور لاگت مؤثر حل بنانے کے عزم کو نمایاں کرتا ہے۔
MTIA 400: مسابقتی GenAI کارکردگی کا حصول
جنریٹو AI میں غیر معمولی اضافے کے ساتھ، میٹا نے تیزی سے MTIA 300 کو MTIA 400 میں تبدیل کیا تاکہ اپنی موجودہ R&R صلاحیتوں کے ساتھ GenAI ورک لوڈز کے لیے مضبوط سپورٹ فراہم کی جا سکے۔ MTIA 400 ایک اہم چھلانگ کی نمائندگی کرتا ہے، جو اپنے پیشرو کے مقابلے میں 400% زیادہ FP8 FLOPS اور HBM بینڈ وڈتھ میں 51% اضافہ پیش کرتا ہے۔ جبکہ MTIA 300 لاگت کی تاثیر پر مرکوز تھا، MTIA 400 کو معروف تجارتی AI ایکسیلریٹرز کے ساتھ مسابقتی خام کارکردگی فراہم کرنے کے لیے ڈیزائن کیا گیا تھا۔
یہ دو کمپیوٹ چپلیٹس کو ملا کر کمپیوٹ کثافت کو مؤثر طریقے سے دوگنا کر کے اور MX8 اور MX4 کے بہتر ورژن کو سپورٹ کر کے یہ حاصل کرتا ہے، جو موثر GenAI انفرنس کے لیے اہم کم درستگی والے فارمیٹس ہیں۔ 72 MTIA 400 آلات سے لیس ایک واحد ریک، جو ایک سوئچڈ بیکپلین کے ذریعے منسلک ہے، ایک طاقتور سکیل-اپ ڈومین بناتا ہے۔ یہ سسٹمز جدید ایئر-اسسٹڈ لیکوڈ کولنگ (AALC) ریکوں کے ذریعے سپورٹ ہوتے ہیں، جو پرانے ڈیٹا سینٹرز میں بھی تیزی سے تعیناتی میں سہولت فراہم کرتے ہیں، جو میٹا کے عالمی سطح پر اپنے AI انفراسٹرکچر کو بڑھانے کے عملی نقطہ نظر کو ظاہر کرتا ہے۔
MTIA 450 اور 500: GenAI انفرنس کے لیے مخصوص
GenAI انفرنس کی مانگ میں مسلسل غیر معمولی ترقی کی توقع کرتے ہوئے، میٹا نے MTIA 400 کو مزید بہتر کیا، جس سے MTIA 450 اور اس کے بعد MTIA 500 کی ترقی ہوئی۔ یہ نسلیں خاص طور پر GenAI انفرنس کے منفرد چیلنجوں کے لیے بہتر بنائی گئی ہیں، جو میموری اور کمپیوٹ میں اہم پیشرفت پر توجہ مرکوز کرتی ہیں۔
MTIA 450 نے نمایاں پیشرفت کی ہے:
- پچھلے ورژن سے HBM بینڈ وڈتھ کو دوگنا کرنا، جو GenAI ماڈلز میں ڈیکوڈ مرحلے کو تیز کرنے کے لیے انتہائی اہم ہے۔
- MX4 FLOPS میں 75% اضافہ کرنا، جو بڑے لسانی ماڈلز میں عام طور پر پائے جانے والے ماہرین کے مرکب (MoE) فیڈ-فارورڈ نیٹ ورک (FFN) کمپیوٹیشنز کو تیز کرتا ہے۔
- اٹينشن اور FFN کمپیوٹیشنز کو زیادہ موثر بنانے کے لیے ہارڈویئر ایکسیلریشن متعارف کروانا، Softmax اور FlashAttention سے منسلک رکاوٹوں کو کم کرنا۔
- کم درستگی والے ڈیٹا کی اقسام میں جدت لانا، FP8/MX8 سے آگے بڑھ کر FP16/BF16 کے MX4 FLOPS کا 6 گنا فراہم کرنا، حسب ضرورت ڈیٹا-ٹائپ کی اختراعات کے ساتھ جو ماڈل کے معیار کو برقرار رکھتی ہیں اور کم سے کم چپ ایریا کے اثر کے ساتھ FLOPS کو بڑھاتی ہیں۔
MTIA 500، 450 کی کامیابی پر تعمیر کرتے ہوئے، HBM بینڈ وڈتھ کو مزید 50% بڑھایا اور کم درستگی والے ڈیٹا کی اقسام میں مزید اختراعات متعارف کروائیں، جو GenAI انفرنس کی کارکردگی کی حدود کو آگے بڑھانے کے لیے میٹا کے عزم کو تقویت دیتی ہیں۔ بہتری کے لیے یہ انتھک کوشش یقینی بناتی ہے کہ میٹا کے AI تجربات جدید ترین رہیں۔
ان نسلوں میں مجموعی پیشرفت نمایاں ہے۔ MTIA 300 سے MTIA 500 تک، HBM بینڈ وڈتھ میں متاثر کن 4.5 گنا اضافہ ہوا ہے، جبکہ کمپیوٹ FLOPS میں حیران کن 25 گنا اضافہ دیکھا گیا ہے (MTIA 300 کے MX8 سے MTIA 500 کے MX4 تک)۔ دو سال کے اندر یہ تیز رفتار ترقی میٹا کی رفتار کی حکمت عملی اور اس کے حسب ضرورت سلیکون کو مسلسل بہتر بنانے کی صلاحیت کا ثبوت ہے۔ یہ ارتقاء ایجنٹک AI کو عملی جامہ پہنانے اور پیمانے پر دیگر پیچیدہ ماڈلز کے لیے مرکزی حیثیت رکھتا ہے۔
یہاں MTIA فیملی میں اہم خصوصیات کا ایک تجزیہ دیا گیا ہے:
| Feature | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| Compute Die | 1 | 2 | 2 | 2 |
| HBM Stacks | 4 | 4 | 8 | 8 |
| HBM Bandwidth (GB/s)* | 100 | 151 | 302 | 453 |
| MX8 FLOPS (TFLOPS) | 100 | 400 | 400 | 400 |
| MX4 FLOPS (TFLOPS) | N/A | 200 | 350 | 500 |
| Scale-up Domain Size | 18 devices** | 72 devices | 72 devices | 72 devices |
| Key Optimization | R&R training, low-latency communication | General GenAI, competitive raw perf. | GenAI inference, HBM, custom low-prec. | GenAI inference, HBM, custom low-prec. |
*کچھ وینڈرز دو طرفہ بینڈ وڈتھ کی اطلاع دیتے ہیں۔ متعلقہ دو طرفہ بینڈ وڈتھ حاصل کرنے کے لیے جدول میں دی گئی قدر کو دو سے ضرب دیں۔ **MTIA 300 کو ایک سکیل-آؤٹ نیٹ ورک کے ساتھ ترتیب دیا گیا ہے جس کی بینڈ وڈتھ زیادہ (200 GB/s) ہے اس کے نسبتاً چھوٹے سکیل-اپ ڈومین سائز اور ہدف R&R ورک لوڈز کی وجہ سے۔
یہ خصوصیات میموری بینڈ وڈتھ اور کمپیوٹ پاور میں ڈرامائی بہتری کو نمایاں کرتی ہیں، یہ ظاہر کرتی ہیں کہ کس طرح ہر MTIA نسل کو موجودہ اور مستقبل کی AI ایپلی کیشنز، خاص طور پر وسائل سے بھرپور GenAI ماڈلز کی انتہائی اہم ضروریات کو پورا کرنے کے لیے احتیاط سے ڈیزائن کیا گیا ہے۔
MTIA فیملی کے ذریعے حسب ضرورت سلیکون حلوں کے لیے میٹا کی انتھک کوشش دنیا بھر میں اربوں صارفین کو جدید ترین AI تجربات فراہم کرنے کے اس کے عزم کو نمایاں کرتی ہے۔ اندرونی جدت کو اسٹریٹجک شراکت داری کے ساتھ ملا کر، میٹا سکیل ایبل اور لاگت مؤثر AI انفراسٹرکچر کے امکانات کو از سر نو بیان کر رہا ہے۔
اکثر پوچھے جانے والے سوالات
What are Meta MTIA chips and what is their purpose?
How many generations of MTIA chips has Meta developed in recent years?
What is Meta's 'velocity strategy' for AI chip development?
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
What are the key performance advancements from MTIA 300 to MTIA 500?
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
اپ ڈیٹ رہیں
تازہ ترین AI خبریں اپنے ان باکس میں حاصل کریں۔
