Code Velocity
AI pentru Întreprinderi

Cipurile Meta MTIA Scalează AI pentru Miliarde

·7 min de citit·Meta·Sursa originală
Distribuie
Cipuri AI Meta MTIA pe o placă de server într-un rack de centru de date

Scalarea Experiențelor AI cu Cipurile MTIA de la Meta

În fiecare zi, miliarde de oameni de pe diversele platforme Meta interacționează cu o multitudine de funcționalități bazate pe inteligență artificială, de la recomandări personalizate de conținut la asistenți AI avansați. Provocarea fundamentală pentru Meta, și de fapt pentru industrie, constă în implementarea și îmbunătățirea continuă a acestor modele AI sofisticate la scară globală, menținând în același timp o eficiență optimă a costurilor. Această sarcină infrastructurală solicitantă este abordată prin investiția strategică a Meta în soluții flexibile, în continuă evoluție, în centrul cărora se află cipurile AI personalizate: familia Meta Training and Inference Accelerator (MTIA).

Deși este angajată într-un portofoliu divers de siliciu care utilizează atât soluții interne, cât și externe, cipurile MTIA, dezvoltate în strâns parteneriat cu Broadcom, reprezintă o componentă indispensabilă a strategiei Meta pentru infrastructura AI. Acești acceleratori proprii sunt cruciali pentru a alimenta eficient din punct de vedere al costurilor experiențele AI care ajung la miliarde de utilizatori, adaptându-se constant la peisajul în rapidă evoluție al modelelor AI.

Evoluția Iterativă a Cipurilor MTIA de la Meta

Peisajul modelelor AI se află într-o stare de flux perpetuu, evoluând într-un ritm care adesea depășește ciclurile tradiționale de dezvoltare a cipurilor. Recunoscând că designurile de cipuri bazate pe sarcini de lucru proiectate pot deveni depășite până la momentul în care hardware-ul ajunge în producție, Meta a adoptat o "strategie de viteză" inovatoare pentru MTIA. În loc de perioade lungi și speculative de dezvoltare, Meta adoptă o abordare iterativă în care fiecare generație MTIA construiește pe baza celei anterioare. Aceasta implică utilizarea de chiplet-uri modulare, încorporarea celor mai recente informații despre sarcinile de lucru AI și implementarea de noi tehnologii hardware într-un ritm semnificativ mai scurt. Această buclă de feedback mai strânsă asigură că siliciul personalizat al Meta rămâne aliniat îndeaproape cu cerințele dinamice ale modelelor AI, favorizând adoptarea mai rapidă a noilor progrese.

Meta a detaliat deja primele două generații, MTIA 100 și MTIA 200, în lucrări academice. Bazându-se pe această fundație, Meta a accelerat dezvoltarea pentru a introduce patru noi generații succesive: MTIA 300, 400, 450 și 500. Aceste cipuri sunt fie deja în producție, fie programate pentru implementare în masă în 2026 și 2027. Această succesiune rapidă a permis Meta să extindă semnificativ acoperirea sarcinilor de lucru ale MTIA, trecând de la inferența inițială de clasificare și recomandare (R&R) la antrenarea R&R, la sarcini de lucru Generative AI (GenAI) generale și la inferența GenAI extrem de optimizată.

MTIA 300: Punerea Bazei pentru Sarcinile de Lucru AI

MTIA 300 a marcat un pas crucial în parcursul Meta cu siliciu personalizat. Optimizat inițial pentru modele R&R, care erau sarcinile de lucru dominante ale Meta înainte de explozia GenAI, blocurile sale arhitecturale au stabilit o fundație robustă pentru cipurile ulterioare. Caracteristicile cheie distinctive ale MTIA 300 includ chiplet-uri NIC integrate, motoare de mesaje dedicate pentru descărcarea colectivelor de comunicare și capacități de calcul aproape de memorie concepute pentru colectivele bazate pe reducție. Aceste componente de comunicare cu latență scăzută și lățime de bandă mare s-au dovedit esențiale în permiterea inferenței și antrenamentului GenAI eficient în generațiile care au urmat.

MTIA 300 cuprinde un chiplet de calcul, două chiplet-uri de rețea și mai multe stack-uri de memorie de bandă largă (HBM). Fiecare chiplet de calcul prezintă o rețea de elemente de procesare (PEs), proiectate strategic cu PEs redundante pentru a îmbunătăți randamentul. Fiecare PE este o unitate sofisticată care conține două nuclee vectoriale RISC-V, un motor de produs scalar pentru înmulțirea matricială, o unitate de funcții speciale pentru activări și operații element cu element, un motor de reducere pentru acumulare și comunicare inter-PE, și un motor DMA pentru mișcarea eficientă a datelor în memoria scratch locală. Acest design complex a subliniat angajamentul Meta de a crea o soluție extrem de eficientă și rentabilă pentru sarcinile sale AI de bază.

MTIA 400: Atingerea Performanței Competitive în GenAI

Odată cu creșterea fără precedent a Inteligenței Artificiale Generative, Meta a evoluat rapid MTIA 300 în MTIA 400 pentru a oferi suport robust pentru sarcinile de lucru GenAI, alături de capacitățile sale R&R existente. MTIA 400 reprezintă un salt semnificativ, oferind cu 400% mai mulți FLOPS FP8 și o creștere de 51% a lățimii de bandă HBM comparativ cu predecesorul său. În timp ce MTIA 300 s-a concentrat pe eficiența costurilor, MTIA 400 a fost conceput pentru a oferi performanțe brute competitive cu acceleratoarele AI comerciale de top.

Acest lucru este realizat prin combinarea a două chiplet-uri de calcul pentru a dubla eficient densitatea de calcul și prin susținerea versiunilor îmbunătățite de MX8 și MX4, formate cruciale de precizie redusă pentru inferența GenAI eficientă. Un singur rack echipat cu 72 de dispozitive MTIA 400, interconectate printr-un backplane comutat, formează un domeniu puternic de scalare. Aceste sisteme sunt susținute de rack-uri avansate de răcire lichidă asistată cu aer (AALC), facilitând implementarea rapidă chiar și în centrele de date vechi, demonstrând abordarea practică a Meta de a-și scala infrastructura AI la nivel global.

MTIA 450 și 500: Specializate pentru Inferența GenAI

Anticipând creșterea exponențială continuă a cererii de inferență GenAI, Meta a rafinat ulterior MTIA 400, ducând la dezvoltarea MTIA 450 și ulterior MTIA 500. Aceste generații sunt optimizate specific pentru provocările unice ale inferenței GenAI, concentrându-se pe progrese critice în memorie și calcul.

MTIA 450 a făcut progrese semnificative prin:

  1. Dublarea lățimii de bandă HBM față de versiunea anterioară, ceea ce este crucial pentru accelerarea fazei de decodare în modelele GenAI.
  2. Creșterea FLOPS MX4 cu 75%, accelerând calculele rețelelor feed-forward (FFN) tip mixture-of-experts (MoE) comune în modelele lingvistice mari.
  3. Introducerea accelerării hardware pentru a eficientiza calculele de atenție și FFN, atenuând blocajele asociate cu Softmax și FlashAttention.
  4. Inovarea în tipuri de date de precizie redusă, trecând dincolo de FP8/MX8 pentru a livra de 6 ori FLOPS MX4 ai FP16/BF16, cu inovații personalizate ale tipurilor de date care păstrează calitatea modelului și cresc FLOPS cu un impact minim asupra suprafeței cipului.

MTIA 500, bazându-se pe succesul lui 450, a crescut și mai mult lățimea de bandă HBM cu încă 50% și a introdus mai multe inovații în tipurile de date de precizie redusă, consolidând angajamentul Meta de a extinde limitele performanței inferenței GenAI. Această dorință neîncetată de îmbunătățire asigură că experiențele AI ale Meta rămân la vârf.

Progresele cumulative în aceste generații sunt evidente. De la MTIA 300 la MTIA 500, lățimea de bandă HBM a crescut cu un impresionant 4,5x, în timp ce FLOPS de calcul au înregistrat o creștere uluitoare de 25x (de la MX8 al MTIA 300 la MX4 al MTIA 500). Această accelerare rapidă în decurs de doi ani este o dovadă a strategiei de viteză a Meta și a capacității sale de a-și îmbunătăți continuu siliciul personalizat. Această evoluție este esențială pentru operaționalizarea AI-ului agentic și a altor modele complexe la scară.

Iată o prezentare a specificațiilor cheie ale familiei MTIA:

CaracteristicăMTIA 300MTIA 400MTIA 450MTIA 500
Matriță de Calcul1222
Stack-uri HBM4488
Lățime de bandă HBM (GB/s)*100151302453
FLOPS MX8 (TFLOPS)100400400400
FLOPS MX4 (TFLOPS)N/A200350500
Dimensiunea Domeniului de Scalare18 dispozitive**72 dispozitive72 dispozitive72 dispozitive
Optimizare CheieAntrenament R&R, comunicare cu latență redusăGenAI general, performanță brută competitivăInferență GenAI, HBM, precizie redusă personalizatăInferență GenAI, HBM, precizie redusă personalizată

*Unii furnizori raportează lățimea de bandă bidirecțională. Înmulțiți valoarea din tabel cu doi pentru a obține lățimea de bandă bidirecțională corespunzătoare. **MTIA 300 este configurat cu o rețea scale-out cu lățime de bandă mai mare (200 GB/s) datorită dimensiunii sale relativ mici a domeniului de scalare și a sarcinilor de lucru R&R vizate.

Aceste specificații evidențiază îmbunătățirile dramatice în lățimea de bandă a memoriei și puterea de calcul, demonstrând modul în care fiecare generație MTIA este proiectată meticulos pentru a răspunde celor mai presante cerințe ale aplicațiilor AI actuale și viitoare, în special ale modelelor GenAI, care necesită resurse intense.

Urmărirea neobosită de către Meta a soluțiilor de siliciu personalizate prin familia MTIA subliniază angajamentul său de a oferi experiențe AI de vârf miliardelor de utilizatori din întreaga lume. Prin combinarea inovației interne cu parteneriate strategice, Meta continuă să redefinească posibilitățile unei infrastructuri AI scalabile și rentabile.

Întrebări frecvente

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Rămâi la curent

Primește ultimele știri AI în inbox-ul tău.

Distribuie