Code Velocity
انٹرپرائز AI

میٹا MTIA چپس اربوں کے لیے AI کو وسعت دیتی ہیں

·7 منٹ پڑھنے·Meta·اصل ماخذ
شیئر کریں
ڈیٹا سینٹر ریک میں سرور بورڈ پر میٹا MTIA AI چپس

میٹا کے MTIA چپس کے ساتھ AI تجربات کو وسعت دینا

ہر روز، میٹا کے متنوع پلیٹ فارمز پر اربوں لوگ AI سے چلنے والی بے شمار خصوصیات کے ساتھ تعامل کرتے ہیں، ذاتی نوعیت کی مواد کی سفارشات سے لے کر جدید AI اسسٹنٹس تک۔ میٹا، اور درحقیقت صنعت کے لیے، بنیادی چیلنج یہ ہے کہ ان نفیس AI ماڈلز کو عالمی سطح پر تعینات کیا جائے اور انہیں مسلسل بہتر بنایا جائے، یہ سب کچھ بہترین لاگت کی کارکردگی کو برقرار رکھتے ہوئے کیا جائے۔ اس مشکل انفراسٹرکچر کے کام کو میٹا کی لچکدار، مسلسل ترقی پذیر حلوں میں اسٹریٹجک سرمایہ کاری سے پورا کیا جاتا ہے، جس کے مرکز میں ان کے حسب ضرورت ڈیزائن کردہ AI چپس ہیں: میٹا ٹریننگ اینڈ انفرنس ایکسیلریٹر (MTIA) فیملی۔

اگرچہ ایک متنوع سلیکون پورٹ فولیو کے لیے پرعزم ہے جو اندرونی اور بیرونی دونوں حلوں کا فائدہ اٹھاتا ہے، MTIA چپس، جو Broadcom کے ساتھ قریبی شراکت میں تیار کی گئی ہیں، میٹا کی AI انفراسٹرکچر حکمت عملی کا ایک ناگزیر جزو ہیں۔ یہ مقامی طور پر تیار کردہ ایکسیلریٹر اربوں تک پہنچنے والے AI تجربات کو مؤثر طریقے سے طاقتور بنانے کے لیے اہم ہیں، جو AI ماڈلز کے تیزی سے بدلتے ہوئے منظرنامے کے مطابق مسلسل ڈھلتے رہتے ہیں۔

میٹا کے MTIA چپس کا تکراری ارتقاء

AI ماڈل کا منظر نامہ مسلسل تبدیلی کی حالت میں ہے، جو اکثر روایتی چپ کی ترقی کے چکروں سے زیادہ تیزی سے تیار ہوتا ہے۔ یہ تسلیم کرتے ہوئے کہ متوقع ورک لوڈز پر مبنی چپ ڈیزائن اس وقت تک پرانے ہو سکتے ہیں جب تک ہارڈویئر پیداوار تک پہنچتا ہے، میٹا نے MTIA کے لیے ایک اختراعی "رفتار کی حکمت عملی" اپنائی ہے۔ طویل، قیاس آرائی پر مبنی ترقیاتی ادوار کے بجائے، میٹا ایک تکراری طریقہ کار اپناتا ہے جہاں MTIA کی ہر نسل پچھلی نسل پر تعمیر کرتی ہے۔ اس میں ماڈیولر چپلیٹس کا استعمال، تازہ ترین AI ورک لوڈ کی بصیرت کو شامل کرنا، اور نمایاں طور پر کم مدت میں نئی ہارڈویئر ٹیکنالوجیز کو تعینات کرنا شامل ہے۔ یہ سخت فیڈ بیک لوپ اس بات کو یقینی بناتا ہے کہ میٹا کا حسب ضرورت سلیکون AI ماڈلز کی متحرک ضروریات کے ساتھ قریب سے ہم آہنگ رہے، نئی پیشرفتوں کو تیزی سے اپنانے کو فروغ دے۔

میٹا نے پہلے ہی پہلی دو نسلوں، MTIA 100 اور MTIA 200 کو تعلیمی مقالات میں تفصیل سے بیان کیا ہے۔ اس بنیاد پر، میٹا نے ترقی کو تیز کیا ہے تاکہ چار نئی لگاتار نسلیں متعارف کروائی جا سکیں: MTIA 300، 400، 450، اور 500۔ یہ چپس یا تو پہلے ہی پیداوار میں ہیں یا 2026 اور 2027 میں بڑے پیمانے پر تعیناتی کے لیے مقرر ہیں۔ اس تیز رفتار کامیابی نے میٹا کو MTIA کی ورک لوڈ کوریج کو نمایاں طور پر بڑھانے کی اجازت دی ہے، جو ابتدائی رینکنگ اور سفارش (R&R) انفرنس سے R&R ٹریننگ، جنرل جنریٹو AI (GenAI) ورک لوڈز، اور انتہائی بہتر GenAI انفرنس کی طرف بڑھ رہی ہے۔

MTIA 300: AI ورک لوڈز کی بنیاد رکھنا

MTIA 300 نے میٹا کے حسب ضرورت سلیکون کے سفر میں ایک اہم قدم کی نشاندہی کی۔ ابتدائی طور پر R&R ماڈلز کے لیے بہتر بنایا گیا، جو GenAI کے عروج سے پہلے میٹا کے غالب ورک لوڈز تھے، اس کے آرکیٹیکچرل بلڈنگ بلاکس نے بعد کے چپس کے لیے ایک مضبوط بنیاد قائم کی۔ MTIA 300 کی اہم خصوصیات میں مربوط NIC چپلیٹس، کمیونیکیشن کلیکٹیوز کو آف لوڈ کرنے کے لیے مخصوص میسج انجن، اور ریڈکشن پر مبنی کلیکٹیوز کے لیے ڈیزائن کردہ قریب-میموری کمپیوٹ صلاحیتیں شامل ہیں۔ یہ کم تاخیر والے، ہائی-بینڈ وڈتھ مواصلاتی اجزاء بعد کی نسلوں میں مؤثر GenAI انفرنس اور ٹریننگ کو فعال کرنے میں اہم ثابت ہوئے۔

MTIA 300 میں ایک کمپیوٹ چپلیٹ، دو نیٹ ورک چپلیٹس، اور کئی ہائی-بینڈ وڈتھ میموری (HBM) اسٹیکس شامل ہیں۔ ہر کمپیوٹ چپلیٹ میں پروسیسنگ عناصر (PEs) کا ایک گرڈ شامل ہے، جسے پیداوار کو بڑھانے کے لیے اضافی PEs کے ساتھ حکمت عملی کے تحت ڈیزائن کیا گیا ہے۔ ہر PE ایک نفیس یونٹ ہے جس میں دو RISC-V ویکٹر کور، میٹرکس ضرب کے لیے ایک ڈاٹ پروڈکٹ انجن، ایک اسپیشل فنکشن یونٹ ایکٹیویشنز اور ایلیمنٹ وائز آپریشنز کے لیے، جمع کرنے اور انٹر-PE مواصلات کے لیے ایک ریڈکشن انجن، اور مقامی سکریچ میموری کے اندر مؤثر ڈیٹا کی نقل و حرکت کے لیے ایک DMA انجن شامل ہے۔ یہ پیچیدہ ڈیزائن میٹا کے اپنے بنیادی AI کاموں کے لیے ایک انتہائی موثر اور لاگت مؤثر حل بنانے کے عزم کو نمایاں کرتا ہے۔

MTIA 400: مسابقتی GenAI کارکردگی کا حصول

جنریٹو AI میں غیر معمولی اضافے کے ساتھ، میٹا نے تیزی سے MTIA 300 کو MTIA 400 میں تبدیل کیا تاکہ اپنی موجودہ R&R صلاحیتوں کے ساتھ GenAI ورک لوڈز کے لیے مضبوط سپورٹ فراہم کی جا سکے۔ MTIA 400 ایک اہم چھلانگ کی نمائندگی کرتا ہے، جو اپنے پیشرو کے مقابلے میں 400% زیادہ FP8 FLOPS اور HBM بینڈ وڈتھ میں 51% اضافہ پیش کرتا ہے۔ جبکہ MTIA 300 لاگت کی تاثیر پر مرکوز تھا، MTIA 400 کو معروف تجارتی AI ایکسیلریٹرز کے ساتھ مسابقتی خام کارکردگی فراہم کرنے کے لیے ڈیزائن کیا گیا تھا۔

یہ دو کمپیوٹ چپلیٹس کو ملا کر کمپیوٹ کثافت کو مؤثر طریقے سے دوگنا کر کے اور MX8 اور MX4 کے بہتر ورژن کو سپورٹ کر کے یہ حاصل کرتا ہے، جو موثر GenAI انفرنس کے لیے اہم کم درستگی والے فارمیٹس ہیں۔ 72 MTIA 400 آلات سے لیس ایک واحد ریک، جو ایک سوئچڈ بیکپلین کے ذریعے منسلک ہے، ایک طاقتور سکیل-اپ ڈومین بناتا ہے۔ یہ سسٹمز جدید ایئر-اسسٹڈ لیکوڈ کولنگ (AALC) ریکوں کے ذریعے سپورٹ ہوتے ہیں، جو پرانے ڈیٹا سینٹرز میں بھی تیزی سے تعیناتی میں سہولت فراہم کرتے ہیں، جو میٹا کے عالمی سطح پر اپنے AI انفراسٹرکچر کو بڑھانے کے عملی نقطہ نظر کو ظاہر کرتا ہے۔

MTIA 450 اور 500: GenAI انفرنس کے لیے مخصوص

GenAI انفرنس کی مانگ میں مسلسل غیر معمولی ترقی کی توقع کرتے ہوئے، میٹا نے MTIA 400 کو مزید بہتر کیا، جس سے MTIA 450 اور اس کے بعد MTIA 500 کی ترقی ہوئی۔ یہ نسلیں خاص طور پر GenAI انفرنس کے منفرد چیلنجوں کے لیے بہتر بنائی گئی ہیں، جو میموری اور کمپیوٹ میں اہم پیشرفت پر توجہ مرکوز کرتی ہیں۔

MTIA 450 نے نمایاں پیشرفت کی ہے:

  1. پچھلے ورژن سے HBM بینڈ وڈتھ کو دوگنا کرنا، جو GenAI ماڈلز میں ڈیکوڈ مرحلے کو تیز کرنے کے لیے انتہائی اہم ہے۔
  2. MX4 FLOPS میں 75% اضافہ کرنا، جو بڑے لسانی ماڈلز میں عام طور پر پائے جانے والے ماہرین کے مرکب (MoE) فیڈ-فارورڈ نیٹ ورک (FFN) کمپیوٹیشنز کو تیز کرتا ہے۔
  3. اٹينشن اور FFN کمپیوٹیشنز کو زیادہ موثر بنانے کے لیے ہارڈویئر ایکسیلریشن متعارف کروانا، Softmax اور FlashAttention سے منسلک رکاوٹوں کو کم کرنا۔
  4. کم درستگی والے ڈیٹا کی اقسام میں جدت لانا، FP8/MX8 سے آگے بڑھ کر FP16/BF16 کے MX4 FLOPS کا 6 گنا فراہم کرنا، حسب ضرورت ڈیٹا-ٹائپ کی اختراعات کے ساتھ جو ماڈل کے معیار کو برقرار رکھتی ہیں اور کم سے کم چپ ایریا کے اثر کے ساتھ FLOPS کو بڑھاتی ہیں۔

MTIA 500، 450 کی کامیابی پر تعمیر کرتے ہوئے، HBM بینڈ وڈتھ کو مزید 50% بڑھایا اور کم درستگی والے ڈیٹا کی اقسام میں مزید اختراعات متعارف کروائیں، جو GenAI انفرنس کی کارکردگی کی حدود کو آگے بڑھانے کے لیے میٹا کے عزم کو تقویت دیتی ہیں۔ بہتری کے لیے یہ انتھک کوشش یقینی بناتی ہے کہ میٹا کے AI تجربات جدید ترین رہیں۔

ان نسلوں میں مجموعی پیشرفت نمایاں ہے۔ MTIA 300 سے MTIA 500 تک، HBM بینڈ وڈتھ میں متاثر کن 4.5 گنا اضافہ ہوا ہے، جبکہ کمپیوٹ FLOPS میں حیران کن 25 گنا اضافہ دیکھا گیا ہے (MTIA 300 کے MX8 سے MTIA 500 کے MX4 تک)۔ دو سال کے اندر یہ تیز رفتار ترقی میٹا کی رفتار کی حکمت عملی اور اس کے حسب ضرورت سلیکون کو مسلسل بہتر بنانے کی صلاحیت کا ثبوت ہے۔ یہ ارتقاء ایجنٹک AI کو عملی جامہ پہنانے اور پیمانے پر دیگر پیچیدہ ماڈلز کے لیے مرکزی حیثیت رکھتا ہے۔

یہاں MTIA فیملی میں اہم خصوصیات کا ایک تجزیہ دیا گیا ہے:

FeatureMTIA 300MTIA 400MTIA 450MTIA 500
Compute Die1222
HBM Stacks4488
HBM Bandwidth (GB/s)*100151302453
MX8 FLOPS (TFLOPS)100400400400
MX4 FLOPS (TFLOPS)N/A200350500
Scale-up Domain Size18 devices**72 devices72 devices72 devices
Key OptimizationR&R training, low-latency communicationGeneral GenAI, competitive raw perf.GenAI inference, HBM, custom low-prec.GenAI inference, HBM, custom low-prec.

*کچھ وینڈرز دو طرفہ بینڈ وڈتھ کی اطلاع دیتے ہیں۔ متعلقہ دو طرفہ بینڈ وڈتھ حاصل کرنے کے لیے جدول میں دی گئی قدر کو دو سے ضرب دیں۔ **MTIA 300 کو ایک سکیل-آؤٹ نیٹ ورک کے ساتھ ترتیب دیا گیا ہے جس کی بینڈ وڈتھ زیادہ (200 GB/s) ہے اس کے نسبتاً چھوٹے سکیل-اپ ڈومین سائز اور ہدف R&R ورک لوڈز کی وجہ سے۔

یہ خصوصیات میموری بینڈ وڈتھ اور کمپیوٹ پاور میں ڈرامائی بہتری کو نمایاں کرتی ہیں، یہ ظاہر کرتی ہیں کہ کس طرح ہر MTIA نسل کو موجودہ اور مستقبل کی AI ایپلی کیشنز، خاص طور پر وسائل سے بھرپور GenAI ماڈلز کی انتہائی اہم ضروریات کو پورا کرنے کے لیے احتیاط سے ڈیزائن کیا گیا ہے۔

MTIA فیملی کے ذریعے حسب ضرورت سلیکون حلوں کے لیے میٹا کی انتھک کوشش دنیا بھر میں اربوں صارفین کو جدید ترین AI تجربات فراہم کرنے کے اس کے عزم کو نمایاں کرتی ہے۔ اندرونی جدت کو اسٹریٹجک شراکت داری کے ساتھ ملا کر، میٹا سکیل ایبل اور لاگت مؤثر AI انفراسٹرکچر کے امکانات کو از سر نو بیان کر رہا ہے۔

اکثر پوچھے جانے والے سوالات

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

اپ ڈیٹ رہیں

تازہ ترین AI خبریں اپنے ان باکس میں حاصل کریں۔

شیئر کریں