Code Velocity
AI për Ndërmarrje

Çipat Meta MTIA Përshkallëzojnë AI për Miliarda

·7 min lexim·Meta·Burimi origjinal
Ndaj
Çipat AI Meta MTIA në një pllakë serveri në një raft të qendrës së të dhënave

Shkallëzimi i Përvojave të AI me Çipat MTIA të Meta-s

Çdo ditë, miliarda njerëz në platformat e ndryshme të Meta-s ndërveprojnë me një mori veçorish të fuqizuara nga AI, nga rekomandimet e personalizuara të përmbajtjes te asistentët e avancuar të AI. Sfida thelbësore për Meta-n, dhe në të vërtetë për industrinë, qëndron në vendosjen dhe përmirësimin e vazhdueshëm të këtyre modeleve të sofistikuara të AI në një shkallë globale, duke ruajtur gjithashtu efikasitetin optimal të kostos. Kjo detyrë kërkuese e infrastrukturës plotësohet nga investimi strategjik i Meta-s në zgjidhje fleksibël, në zhvillim të vazhdueshëm, në qendër të të cilave janë çipat e tyre të AI të dizajnuar me porosi: familja Meta Training and Inference Accelerator (MTIA).

Ndërsa Meta është e angazhuar për një portofol të larmishëm silikoni që shfrytëzon zgjidhje të brendshme dhe të jashtme, çipat MTIA, të zhvilluar në partneritet të ngushtë me Broadcom, janë një komponent i domosdoshëm i strategjisë së infrastrukturës së AI të Meta-s. Këta akseleratorë të brendshëm janë thelbësorë për fuqizimin me kosto-efikasitet të përvojave të AI që arrijnë miliarda njerëz, duke u përshtatur vazhdimisht me peizazhin në zhvillim të shpejtë të modeleve të AI.

Evolucioni Iterativ i Çipave MTIA të Meta-s

Peizazhi i modeleve të AI është në një gjendje ndryshimi të vazhdueshëm, duke evoluar me një ritëm që shpesh tejkalon ciklet tradicionale të zhvillimit të çipave. Duke njohur që dizajnet e çipave bazuar në ngarkesat e punës të parashikuara mund të bëhen të vjetruara në kohën kur hardueri arrin në prodhim, Meta ka përqafuar një "strategji shpejtësie" inovative për MTIA. Në vend të periudhave të gjata dhe spekulative të zhvillimit, Meta adopton një qasje iterative ku çdo gjeneratë MTIA ndërton mbi të fundit. Kjo përfshin përdorimin e çipletave modulare, përfshirjen e njohurive më të fundit të ngarkesës së punës të AI, dhe vendosjen e teknologjive të reja të harduerit në një afat dukshëm më të shkurtër. Ky cikël më i ngushtë reagimi siguron që silikoni i personalizuar i Meta-s të mbetet i përshtatur ngushtë me kërkesat dinamike të modeleve të AI, duke nxitur adoptimin më të shpejtë të avancimeve të reja.

Meta ka detajuar tashmë dy gjeneratat e para, MTIA 100 dhe MTIA 200, në punime akademike. Duke u mbështetur në këtë themel, Meta ka përshpejtuar zhvillimin për të prezantuar katër gjenerata të reja të njëpasnjëshme: MTIA 300, 400, 450 dhe 500. Këta çipa ose janë tashmë në prodhim ose janë planifikuar për vendosje masive në 2026 dhe 2027. Kjo vazhdimësi e shpejtë i ka lejuar Meta-s të zgjerojë ndjeshëm mbulimin e ngarkesës së punës të MTIA, duke kaluar nga inference fillestare e renditjes dhe rekomandimit (R&R) në trajnimin R&R, ngarkesa pune të përgjithshme të Inteligjencës Artificiale Gjeneruese (GenAI), dhe inference GenAI shumë të optimizuar.

MTIA 300: Hedhja e Bazave për Ngarkesat e Punës të AI

MTIA 300 shënoi një hap thelbësor në udhëtimin e silikonit të personalizuar të Meta-s. Fillimisht e optimizuar për modelet R&R, të cilat ishin ngarkesat dominuese të Meta-s para bumit të GenAI, blloqet e saj arkitektonike themeluan një bazë të fortë për çipat pasardhës. Veçoritë kryesore dalluese të MTIA 300 përfshijnë çipleta NIC të integruar, motorë mesazhesh të dedikuar për shkarkimin e kolektivave të komunikimit, dhe aftësi llogaritëse afër memories të dizajnuara për kolektivë të bazuar në reduktim. Këto komponentë komunikimi me latencë të ulët dhe gjerësi bande të lartë provuan thelbësore në mundësimin e inference dhe trajnimit efikas të GenAI në gjeneratat që pasuan.

MTIA 300 përbëhet nga një çipletë llogaritëse, dy çipleta rrjeti, dhe disa grumbullime Memorie me Gjerësi Bande të Lartë (HBM). Çdo çipletë llogaritëse përmban një rrjet elementësh përpunimi (PEs), të projektuar në mënyrë strategjike me PEs të tepërt për të rritur rendimentin. Çdo PE është një njësi e sofistikuar që përmban dy bërthama vektoriale RISC-V, një Motor Pika-Produkti për shumëzimin e matricave, një Njësi Funksionale Speciale për aktivizimet dhe operacionet element-nga-element, një Motor Reduktimi për akumulimin dhe komunikimin ndër-PE, dhe një motor DMA për lëvizjen efikase të të dhënave brenda memories lokale të fshirjes. Ky dizajn i ndërlikuar theksoi angazhimin e Meta-s për të krijuar një zgjidhje shumë efikase dhe me kosto-efikasitet për detyrat e saj thelbësore të AI.

MTIA 400: Arritja e Performancës Konkurruese të GenAI

Me rritjen e paprecedentë të Inteligjencës Artificiale Gjeneruese, Meta evoluoi me shpejtësi MTIA 300 në MTIA 400 për të ofruar mbështetje të fuqishme për ngarkesat e punës të GenAI krahas aftësive të saj ekzistuese R&R. MTIA 400 përfaqëson një hap të rëndësishëm, duke ofruar 400% FLOPS FP8 më të larta dhe një rritje prej 51% në gjerësinë e bandes HBM krahasuar me paraardhësin e saj. Ndërsa MTIA 300 u përqendrua në efikasitetin e kostos, MTIA 400 u projektua për të ofruar performancë të papërpunuar konkurruese me akseleratorët kryesorë komercialë të AI.

Kjo arrihet duke kombinuar dy çipleta llogaritëse për të dyfishuar efektivisht densitetin e llogaritjes dhe duke mbështetur versione të përmirësuara të MX8 dhe MX4, formate thelbësore me saktësi të ulët për inference efikase të GenAI. Një raft i vetëm i pajisur me 72 pajisje MTIA 400, të ndërlidhura nëpërmjet një pllake prapa të ndërruar, formon një domen të fuqishëm shkallëzimi vertikal. Këto sisteme mbështeten nga raftet e avancuara të ftohjes së lëngshme me asistencë ajri (AALC), duke lehtësuar vendosjen e shpejtë edhe në qendrat e të dhënave të trashëgimisë, duke treguar qasjen praktike të Meta-s për shkallëzimin e infrastrukturës së saj të AI globalisht.

MTIA 450 dhe 500: Të Specializuara për Inference GenAI

Duke parashikuar rritjen eksponenciale të vazhdueshme të kërkesës për inference GenAI, Meta e përmirësoi më tej MTIA 400, duke çuar në zhvillimin e MTIA 450 dhe më pas MTIA 500. Këto gjenerata janë optimizuar specifikisht për sfidat unike të inference GenAI, duke u përqendruar në përparimet kritike në memorie dhe llogaritje.

MTIA 450 bëri hapa të rëndësishëm duke:

  1. Dyfishuar gjerësinë e bandes HBM nga versioni i mëparshëm, gjë që është thelbësore për përshpejtimin e fazës së dekodimit në modelet GenAI.
  2. Rritur MX4 FLOPS me 75%, duke shpejtuar llogaritjet e rrjetit feed-forward (FFN) të përzierjes së ekspertëve (MoE) të zakonshme në modelet e mëdha gjuhësore.
  3. Prezantuar akselerim hardueri për të bërë llogaritjet e vëmendjes dhe FFN më efikase, duke lehtësuar pengesat e lidhura me Softmax dhe FlashAttention.
  4. Inovuar në tipat e të dhënave me saktësi të ulët, duke kaluar përtej FP8/MX8 për të ofruar 6x MX4 FLOPS të FP16/BF16, me inovacione të personalizuara të tipit të të dhënave që ruajnë cilësinë e modelit dhe rrisin FLOPS me ndikim minimal në sipërfaqen e çipit.

MTIA 500, duke u ndërtuar mbi suksesin e 450, rriti më tej gjerësinë e bandes HBM me një 50% shtesë dhe prezantoi më shumë inovacione në tipat e të dhënave me saktësi të ulët, duke forcuar angazhimin e Meta-s për të shtyrë kufijtë e performancës së inference GenAI. Ky nxitje e pandalshme për përmirësim siguron që përvojat e AI të Meta-s të mbeten në avangardë.

Përparimet kumulative nëpër këto gjenerata janë të theksuara. Nga MTIA 300 në MTIA 500, gjerësia e bandes HBM është rritur me një 4.5x mbresëlënëse, ndërsa FLOPS të llogaritjes kanë parë një rritje mahnitëse prej 25x (nga MX8 i MTIA 300 në MX4 i MTIA 500). Ky përshpejtim i shpejtë brenda dy vjetëve është një dëshmi e strategjisë së shpejtësisë së Meta-s dhe aftësisë së saj për të përmirësuar vazhdimisht silikonin e saj të personalizuar. Ky evolucion është thelbësor për operacionalizimin e AI agjentike dhe modeleve të tjera komplekse në shkallë të gjerë.

Këtu është një analizë e specifikave kryesore në familjen MTIA:

VeçoriaMTIA 300MTIA 400MTIA 450MTIA 500
Matrica Llogaritëse1222
Grumbullime HBM4488
Gjerësia e bandes HBM (GB/s)*100151302453
MX8 FLOPS (TFLOPS)100400400400
MX4 FLOPS (TFLOPS)N/A200350500
Madhësia e Domenit të Shkallëzimit Vertikal18 pajisje**72 pajisje72 pajisje72 pajisje
Optimizimi KryesorTrajnim R&R, komunikim me latencë të ulëtGenAI e përgjithshme, performancë e papërpunuar konkurrueseInference GenAI, HBM, saktësi e ulët e personalizuarInference GenAI, HBM, saktësi e ulët e personalizuar

*Disa shitës raportojnë gjerësinë e bandes bidirekcionale. Shumëzoni vlerën në tabelë me dy për të marrë gjerësinë e bandes bidirekcionale përkatëse. **MTIA 300 është konfiguruar me një rrjet scale-out me gjerësi bande më të lartë (200 GB/s) për shkak të madhësisë relativisht të vogël të domenit të tij të shkallëzimit vertikal dhe ngarkesave të punës R&R të synuara.

Këto specifikime theksojnë përmirësimet dramatike në gjerësinë e bandes së memories dhe fuqinë llogaritëse, duke demonstruar se si çdo gjeneratë MTIA është inxhinierizuar me përpikëri për të adresuar kërkesat më urgjente të aplikacioneve aktuale dhe të ardhshme të AI, veçanërisht modelet GenAI që kërkojnë shumë burime.

Ndjekja e pandalshme e Meta-s e zgjidhjeve të silikonit të personalizuar nëpërmjet familjes MTIA thekson angazhimin e saj për të ofruar përvoja të AI të avancuara për miliarda përdorues në mbarë botën. Duke kombinuar inovacionin e brendshëm me partneritetet strategjike, Meta vazhdon të ridefinojë mundësitë e infrastrukturës së AI të shkallëzueshme dhe me kosto-efikasitet.

Pyetjet e bëra shpesh

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Qëndroni të përditësuar

Merrni lajmet më të fundit të AI në email.

Ndaj