Code Velocity
AI dla Przedsiębiorstw

Chipy Meta MTIA skalują sztuczną inteligencję dla miliardów użytkowników

·7 min czytania·Meta·Źródło oryginalne
Udostępnij
Chipy AI Meta MTIA na płycie serwerowej w szafie centrum danych

Skalowanie doświadczeń AI dzięki chipom MTIA firmy Meta

Każdego dnia miliardy ludzi na różnorodnych platformach Meta korzystają z niezliczonych funkcji opartych na AI, od spersonalizowanych rekomendacji treści po zaawansowanych asystentów AI. Podstawowe wyzwanie dla Meta, a właściwie dla całej branży, polega na wdrażaniu i ciągłym ulepszaniu tych złożonych modeli AI na skalę globalną, przy jednoczesnym utrzymaniu optymalnej efektywności kosztowej. To wymagające zadanie infrastrukturalne jest realizowane dzięki strategicznej inwestycji Meta w elastyczne, ciągle ewoluujące rozwiązania, których centralnym elementem są ich specjalnie zaprojektowane chipy AI: rodzina Meta Training and Inference Accelerator (MTIA).

Chociaż Meta stawia na zróżnicowane portfolio krzemowe, które wykorzystuje zarówno rozwiązania wewnętrzne, jak i zewnętrzne, chipy MTIA, opracowane w ścisłym partnerstwie z Broadcom, stanowią niezastąpiony element strategii infrastruktury AI firmy Meta. Te opracowane we własnym zakresie akceleratory są kluczowe dla efektywnego kosztowo zasilania doświadczeń AI docierających do miliardów użytkowników, stale dostosowując się do szybko ewoluującego krajobrazu modeli AI.

Iteracyjna ewolucja chipów MTIA firmy Meta

Krajobraz modeli AI znajduje się w stanie ciągłej zmiany, ewoluując w tempie, które często przewyższa tradycyjne cykle rozwoju chipów. Uznając, że projekty chipów oparte na przewidywanych obciążeniach mogą stać się przestarzałe zanim sprzęt trafi do produkcji, Meta przyjęła innowacyjną "strategię prędkości" dla MTIA. Zamiast długich, spekulatywnych okresów rozwoju, Meta stosuje iteracyjne podejście, w którym każda generacja MTIA opiera się na poprzedniej. Obejmuje to wykorzystanie modułowych chipletów, włączanie najnowszych spostrzeżeń dotyczących obciążeń AI i wdrażanie nowych technologii sprzętowych w znacznie krótszym cyklu. Ta ściślejsza pętla sprzężenia zwrotnego zapewnia, że niestandardowy krzem Meta pozostaje ściśle zgodny z dynamicznymi wymaganiami modeli AI, sprzyjając szybszemu wdrażaniu nowych osiągnięć.

Meta już szczegółowo opisała dwie pierwsze generacje, MTIA 100 i MTIA 200, w artykułach naukowych. Bazując na tych podstawach, Meta przyspieszyła rozwój, wprowadzając cztery nowe kolejne generacje: MTIA 300, 400, 450 i 500. Chipy te są już w produkcji lub są przewidziane do masowego wdrożenia w 2026 i 2027 roku. Ta szybka sukcesja pozwoliła Meta na znaczne rozszerzenie zakresu obciążeń MTIA, przechodząc od początkowej inferencji rankingowej i rekomendacyjnej (R&R) do treningu R&R, ogólnych obciążeń Generatywnej AI (GenAI) oraz wysoce zoptymalizowanej inferencji GenAI.

MTIA 300: Kładzenie podwalin pod obciążenia AI

MTIA 300 stanowił kluczowy krok w podróży Meta w kierunku niestandardowego krzemu. Początkowo zoptymalizowany dla modeli R&R, które były dominującymi obciążeniami Meta przed boomem GenAI, jego architektoniczne bloki konstrukcyjne stworzyły solidne podstawy dla kolejnych chipów. Kluczowe cechy wyróżniające MTIA 300 obejmują zintegrowane chiplety NIC, dedykowane silniki wiadomości do odciążania kolektywów komunikacyjnych oraz możliwości obliczeniowe blisko pamięci, zaprojektowane dla kolektywów opartych na redukcji. Te niskoprzewodowe, wysokoprzepustowe komponenty komunikacyjne okazały się kluczowe w umożliwieniu efektywnej inferencji i treningu GenAI w kolejnych generacjach.

MTIA 300 składa się z jednego chipleta obliczeniowego, dwóch chipletów sieciowych i kilku stosów pamięci o wysokiej przepustowości (HBM). Każdy chiplet obliczeniowy zawiera siatkę elementów przetwarzających (PE), strategicznie zaprojektowanych z nadmiarowymi PE w celu zwiększenia wydajności. Każdy PE to zaawansowana jednostka zawierająca dwa wektorowe rdzenie RISC-V, silnik iloczynu skalarnego do mnożenia macierzy, specjalną jednostkę funkcyjną do aktywacji i operacji elementarnych, silnik redukcji do akumulacji i komunikacji między PE oraz silnik DMA do efektywnego przenoszenia danych w lokalnej pamięci podręcznej. Ten skomplikowany projekt podkreślił zaangażowanie Meta w tworzenie wysoce wydajnego i ekonomicznego rozwiązania dla swoich podstawowych zadań AI.

MTIA 400: Osiąganie konkurencyjnej wydajności GenAI

Wraz z bezprecedensowym wzrostem popularności Generatywnej AI, Meta szybko przekształciła MTIA 300 w MTIA 400, aby zapewnić solidne wsparcie dla obciążeń GenAI obok istniejących możliwości R&R. MTIA 400 stanowi znaczący skok, oferując o 400% wyższe FLOPS FP8 i 51% wzrost przepustowości HBM w porównaniu do poprzednika. Podczas gdy MTIA 300 skupiał się na efektywności kosztowej, MTIA 400 został zaprojektowany, aby dostarczać surową wydajność konkurencyjną z wiodącymi komercyjnymi akceleratorami AI.

Osiąga to poprzez połączenie dwóch chipletów obliczeniowych, aby efektywnie podwoić gęstość obliczeniową, oraz poprzez wspieranie ulepszonych wersji MX8 i MX4, kluczowych formatów o niskiej precyzji dla efektywnej inferencji GenAI. Pojedyncza szafa wyposażona w 72 urządzenia MTIA 400, połączone za pośrednictwem przełączanej płyty bazowej, tworzy potężną domenę skalowalności. Systemy te są wspierane przez zaawansowane szafy z chłodzeniem cieczowym wspomaganym powietrzem (AALC), ułatwiając szybkie wdrożenie nawet w starszych centrach danych, pokazując praktyczne podejście Meta do globalnego skalowania swojej infrastruktury AI.

MTIA 450 i 500: Specjalizacja w inferencji GenAI

Przewidując dalszy wykładniczy wzrost zapotrzebowania na inferencję GenAI, Meta dalej udoskoniliła MTIA 400, co doprowadziło do opracowania MTIA 450, a następnie MTIA 500. Te generacje są specjalnie zoptymalizowane pod kątem unikalnych wyzwań inferencji GenAI, koncentrując się na kluczowych postępach w zakresie pamięci i obliczeń.

MTIA 450 poczynił znaczące postępy poprzez:

  1. Podwojenie przepustowości HBM w porównaniu z poprzednią wersją, co jest kluczowe dla przyspieszenia fazy dekodowania w modelach GenAI.
  2. Zwiększenie FLOPS MX4 o 75%, przyspieszając obliczenia sieci neuronowej z przeplotem (FFN) typu mixture-of-experts (MoE) powszechne w dużych modelach językowych.
  3. Wprowadzenie akceleracji sprzętowej w celu zwiększenia efektywności obliczeń uwagi i FFN, łagodząc wąskie gardła związane z Softmax i FlashAttention.
  4. Innowacje w typach danych o niskiej precyzji, wykraczające poza FP8/MX8, aby zapewnić 6-krotnie większe FLOPS MX4 niż FP16/BF16, z niestandardowymi innowacjami w typach danych, które zachowują jakość modelu i zwiększają FLOPS przy minimalnym wpływie na powierzchnię chipa.

MTIA 500, bazując na sukcesie 450, jeszcze bardziej zwiększył przepustowość HBM o dodatkowe 50% i wprowadził więcej innowacji w typach danych o niskiej precyzji, wzmacniając zaangażowanie Meta w przesuwanie granic wydajności inferencji GenAI. Ten nieustanny dążenie do ulepszeń zapewnia, że doświadczenia AI firmy Meta pozostają na najwyższym poziomie.

Skumulowane postępy we wszystkich tych generacjach są wyraźne. Od MTIA 300 do MTIA 500, przepustowość HBM wzrosła imponująco 4,5-krotnie, podczas gdy FLOPS obliczeniowe odnotowały zdumiewający 25-krotny wzrost (z MX8 MTIA 300 do MX4 MTIA 500). To szybkie przyspieszenie w ciągu dwóch lat jest świadectwem strategii prędkości Meta i jej zdolności do ciągłego ulepszania niestandardowego krzemu. Ta ewolucja jest kluczowa dla operacjonalizacji agentowej sztucznej inteligencji i innych złożonych modeli na dużą skalę.

Oto zestawienie kluczowych specyfikacji rodziny MTIA:

CechaMTIA 300MTIA 400MTIA 450MTIA 500
Matryca Obliczeniowa1222
Stosy HBM4488
Przepustowość HBM (GB/s)*100151302453
MX8 FLOPS (TFLOPS)100400400400
MX4 FLOPS (TFLOPS)N/A200350500
Rozmiar Domeny Skalowania18 urządzeń**72 urządzenia72 urządzenia72 urządzenia
Kluczowa OptymalizacjaTrening R&R, komunikacja o niskim opóźnieniuOgólna GenAI, konkurencyjna surowa wydajnośćInferencja GenAI, HBM, niestandardowa niska precyzjaInferencja GenAI, HBM, niestandardowa niska precyzja

*Niektórzy dostawcy podają przepustowość dwukierunkową. Pomnóż wartość w tabeli przez dwa, aby uzyskać odpowiadającą jej przepustowość dwukierunkową. **MTIA 300 jest skonfigurowany z siecią scale-out o wyższej przepustowości (200 GB/s) ze względu na stosunkowo mały rozmiar domeny skalowania i docelowe obciążenia R&R.

Te specyfikacje podkreślają dramatyczne ulepszenia w przepustowości pamięci i mocy obliczeniowej, pokazując, jak każda generacja MTIA jest skrupulatnie projektowana, aby sprostać najbardziej palącym wymaganiom obecnych i przyszłych zastosowań AI, w szczególności zasobochłonnych modeli GenAI.

Nieustanne dążenie Meta do niestandardowych rozwiązań krzemowych poprzez rodzinę MTIA podkreśla jej zaangażowanie w dostarczanie najnowocześniejszych doświadczeń AI miliardom użytkowników na całym świecie. Łącząc wewnętrzne innowacje ze strategicznymi partnerstwami, Meta wciąż na nowo definiuje możliwości skalowalnej i efektywnej kosztowo infrastruktury AI.

Często zadawane pytania

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Bądź na bieżąco

Otrzymuj najnowsze wiadomości o AI na swoją skrzynkę.

Udostępnij