MI Élmények Skálázása a Meta MTIA Chipjeivel
Nap mint nap, milliárdok használnak MI-alapú funkciókat a Meta változatos platformjain, a személyre szabott tartalomajánlatoktól a fejlett MI asszisztensekig. A Meta – és az egész iparág – előtt álló kihívás az, hogy ezeket a kifinomult MI modelleket globális szinten telepítse és folyamatosan fejlessze, miközben fenntartja az optimális költséghatékonyságot. Ezt az igényes infrastruktúra-feladatot a Meta stratégiai befektetései oldják meg, rugalmas, folyamatosan fejlődő megoldások formájában, amelyek központi elemei az egyedi tervezésű MI chipjeik: a Meta Training and Inference Accelerator (MTIA) család.
Bár elkötelezett egy sokszínű szilícium portfólió iránt, amely belső és külső megoldásokat egyaránt felhasznál, az MTIA chipek, amelyeket szoros együttműködésben fejlesztettek ki a Broadcommal, a Meta MI infrastruktúra stratégiájának nélkülözhetetlen részét képezik. Ezek a házon belül fejlesztett gyorsítók kulcsfontosságúak az MI élmények költséghatékony biztosításához, amelyek milliárdokhoz jutnak el, folyamatosan alkalmazkodva az MI modellek gyorsan változó környezetéhez.
A Meta MTIA Chipjeinek Iteratív Fejlődése
Az MI modell környezet állandó változásban van, olyan ütemben fejlődik, amely gyakran meghaladja a hagyományos chipfejlesztési ciklusokat. Felismerve, hogy a prognosztizált munkaterhelésekre alapozott chiptervek elavulttá válhatnak, mire a hardver gyártásba kerül, a Meta egy innovatív 'sebességi stratégiát' vezetett be az MTIA-ra. A hosszú, spekulatív fejlesztési időszakok helyett a Meta iteratív megközelítést alkalmaz, ahol minden MTIA generáció az előzőre épül. Ez moduláris chipleteket, a legújabb MI munkaterhelési felismerések beépítését és új hardvertechnológiák bevezetését jelenti jelentősen rövidebb ütemben. Ez a szorosabb visszacsatolási hurok biztosítja, hogy a Meta egyedi szilíciumja szorosan igazodjon az MI modellek dinamikus igényeihez, elősegítve az új fejlesztések gyorsabb bevezetését.
A Meta már részletezte az első két generációt, az MTIA 100-at és az MTIA 200-at tudományos publikációkban. Erre az alapra építve a Meta felgyorsította a fejlesztést, hogy négy új, egymást követő generációt mutasson be: MTIA 300, 400, 450 és 500. Ezek a chipek már gyártásban vannak, vagy tömeges bevezetésüket 2026-ra és 2027-re tervezik. Ez a gyors egymásutániság lehetővé tette a Meta számára, hogy jelentősen kibővítse az MTIA munkaterhelési lefedettségét, az elsődleges rangsorolási és ajánlási (R&R) következtetéstől az R&R képzésig, az általános Generatív MI (GenAI) munkaterhelésekig és a nagymértékben optimalizált Generatív MI következtetésig.
MTIA 300: Az MI Munkaterhelések Alapjainak Letétele
Az MTIA 300 kulcsfontosságú lépést jelentett a Meta egyedi szilícium fejlesztésének útján. Kezdetben az R&R modellekre optimalizálták, amelyek a Generatív MI fellendülése előtt a Meta domináns munkaterhelései voltak. Architektúrájának építőelemei szilárd alapot teremtettek a későbbi chipek számára. Az MTIA 300 főbb jellemzői közé tartoznak az integrált NIC chipletek, a kommunikációs kollektívák tehermentesítésére szolgáló dedikált üzenetkezelő motorok, valamint a redukció-alapú kollektívákhoz tervezett memóriához közeli számítási képességek. Ezek az alacsony késleltetésű, nagy sávszélességű kommunikációs komponensek kulcsfontosságúnak bizonyultak a hatékony Generatív MI következtetés és képzés lehetővé tételében a következő generációkban.
Az MTIA 300 egy számítási chipletből, két hálózati chipletből és több nagy sávszélességű memória (HBM) stackből áll. Minden számítási chiplet feldolgozó elemek (PE) rácsát tartalmazza, stratégiailag redundáns PE-kkel tervezve a hozam növelése érdekében. Minden PE egy kifinomult egység, amely két RISC-V vektoros magot, mátrixszorzáshoz egy Dot Product Engine-t, aktiválásokhoz és elemenkénti műveletekhez egy Special Function Unit-ot, akkumulációhoz és PE-k közötti kommunikációhoz egy Reduction Engine-t, valamint a helyi scratch memórián belüli hatékony adatmozgatáshoz egy DMA motort tartalmaz. Ez a bonyolult tervezés aláhúzta a Meta elkötelezettségét, hogy rendkívül hatékony és költséghatékony megoldást hozzon létre alapvető MI feladataihoz.
MTIA 400: Versenyképes Generatív MI Teljesítmény Elérése
A Generatív MI példátlan térnyerésével a Meta gyorsan továbbfejlesztette az MTIA 300-at MTIA 400-ra, hogy robusztus támogatást nyújtson a Generatív MI munkaterhelésekhez a meglévő R&R képességei mellett. Az MTIA 400 jelentős előrelépést képvisel, 400%-kal magasabb FP8 FLOPS-ot és 51%-os HBM sávszélesség növelést kínál elődjéhez képest. Míg az MTIA 300 a költséghatékonyságra összpontosított, az MTIA 400-at úgy tervezték, hogy a vezető kereskedelmi MI gyorsítókkal versenyképes nyers teljesítményt nyújtson.
Ezt két számítási chiplet kombinálásával éri el, amelyek hatékonyan megduplázzák a számítási sűrűséget, és az MX8 és MX4 továbbfejlesztett verzióinak támogatásával, amelyek kulcsfontosságú alacsony pontosságú formátumok a hatékony Generatív MI következtetéshez. Egyetlen rack, amely 72 MTIA 400 eszközzel van felszerelve, és kapcsolt hátlapon keresztül van összekapcsolva, erőteljes skálázási tartományt alkot. Ezeket a rendszereket fejlett légsegédelt folyadékhűtéses (AALC) rackek támogatják, amelyek gyors telepítést tesznek lehetővé még a régebbi adatközpontokban is, bemutatva a Meta gyakorlati megközelítését MI infrastruktúrájának globális skálázásához.
MTIA 450 és 500: Generatív MI Következtetésre Specializálva
A Generatív MI következtetési igények folyamatos exponenciális növekedését előre látva a Meta tovább finomította az MTIA 400-at, ami az MTIA 450, majd az MTIA 500 fejlesztéséhez vezetett. Ezek a generációk kifejezetten a Generatív MI következtetés egyedi kihívásaira optimalizáltak, a memória és a számítási teljesítmény kritikus fejlesztéseire összpontosítva.
Az MTIA 450 jelentős előrelépéseket tett azáltal, hogy:
- Megduplázta a HBM sávszélességét az előző verzióhoz képest, ami kulcsfontosságú a Generatív MI modellek dekódolási fázisának gyorsításához.
- 75%-kal növelte az MX4 FLOPS-ot, felgyorsítva a mixture-of-experts (MoE) feed-forward network (FFN) számításokat, amelyek gyakoriak a nagy nyelvi modellekben.
- Hardveres gyorsítást vezetett be a figyelmi és FFN számítások hatékonyabbá tételére, enyhítve a Softmax és FlashAttention-hoz kapcsolódó szűk keresztmetszeteket.
- Innovatív, alacsony pontosságú adattípusokat alkalmazott, túllépve az FP8/MX8-on, hogy az FP16/BF16 MX4 FLOPS-ának 6-szorosát biztosítsa, egyedi adattípus-innovációkkal, amelyek megőrzik a modell minőségét és növelik a FLOPS-ot minimális chipterület-igénnyel.
Az MTIA 500, építve a 450 sikerére, további 50%-kal növelte a HBM sávszélességet, és további innovációkat vezetett be az alacsony pontosságú adattípusokban, megerősítve a Meta elkötelezettségét a Generatív MI következtetési teljesítmény határainak feszegetése iránt. Ez a megállíthatatlan fejlődési vágy biztosítja, hogy a Meta MI élményei a legmodernebbek maradjanak.
Ezek a generációk közötti kumulatív fejlesztések látványosak. Az MTIA 300-tól az MTIA 500-ig a HBM sávszélesség lenyűgöző 4,5-szeresére nőtt, míg a számítási FLOPS elképesztő 25-szörös növekedést mutatott (az MTIA 300 MX8-as formátumától az MTIA 500 MX4-es formátumáig). Ez a két éven belüli gyorsulás a Meta sebességi stratégiájának és azon képességének bizonyítéka, hogy folyamatosan fejleszti egyedi szilíciumát. Ez az evolúció kulcsfontosságú az ügynök-alapú MI operationalizálásához és más komplex modellek nagyméretű alkalmazásához.
Íme egy összefoglaló az MTIA család főbb specifikációiról:
| Jellemző | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| Számítási lapka | 1 | 2 | 2 | 2 |
| HBM stackek | 4 | 4 | 8 | 8 |
| HBM sávszélesség (GB/s)* | 100 | 151 | 302 | 453 |
| MX8 FLOPS (TFLOPS) | 100 | 400 | 400 | 400 |
| MX4 FLOPS (TFLOPS) | N/A | 200 | 350 | 500 |
| Skálázási tartomány mérete | 18 eszköz** | 72 eszköz | 72 eszköz | 72 eszköz |
| Fő optimalizáció | R&R képzés, alacsony késleltetésű kommunikáció | Általános Generatív MI, versenyképes nyers teljesítmény | Generatív MI következtetés, HBM, egyedi alacsony pontosság | Generatív MI következtetés, HBM, egyedi alacsony pontosság |
*Néhány gyártó kétirányú sávszélességet jelent. Szorozza meg a táblázatban szereplő értéket kettővel a megfelelő kétirányú sávszélesség megállapításához. **Az MTIA 300-at skála-kiterjesztő hálózattal konfigurálták, magasabb sávszélességgel (200 GB/s) a viszonylag kicsi skálázási tartomány mérete és a cél R&R munkaterhelések miatt.
Ezek a specifikációk rávilágítanak a memória sávszélesség és a számítási teljesítmény drámai javulásaira, bemutatva, hogyan van minden MTIA generáció aprólékosan megtervezve, hogy megfeleljen a jelenlegi és jövőbeli MI alkalmazások, különösen az erőforrásigényes Generatív MI modellek legégetőbb igényeinek.
A Meta rendíthetetlen törekvése az egyedi szilícium megoldásokra az MTIA család révén aláhúzza elkötelezettségét, hogy élvonalbeli MI élményeket nyújtson felhasználók milliárdjainak világszerte. A belső innováció és a stratégiai partnerségek kombinálásával a Meta továbbra is újradefiniálja a skálázható és költséghatékony MI infrastruktúra lehetőségeit.
Gyakran ismételt kérdések
What are Meta MTIA chips and what is their purpose?
How many generations of MTIA chips has Meta developed in recent years?
What is Meta's 'velocity strategy' for AI chip development?
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
What are the key performance advancements from MTIA 300 to MTIA 500?
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
Maradjon naprakész
Kapja meg a legfrissebb AI híreket e-mailben.
