Code Velocity
Корпоративен ИИ

Чиповете MTIA на Meta мащабират ИИ за милиарди

·7 мин четене·Meta·Оригинален източник
Сподели
ИИ чипове MTIA на Meta на сървърна платка в шкаф на център за данни

title: "Чиповете MTIA на Meta мащабират ИИ за милиарди" slug: "meta-mtia-scale-ai-chips-for-billions" date: "2026-03-14" lang: "bg" source: "https://ai.meta.com/blog/meta-mtia-scale-ai-chips-for-billions/" category: "Корпоративен ИИ" keywords:

  • Meta
  • MTIA
  • ИИ чипове
  • GenAI
  • хардуер за инференция
  • персонализиран силиций
  • центрове за данни
  • Llama
  • HBM честотна лента
  • типове данни с ниска точност
  • ИИ инфраструктура
  • R&R натоварвания meta_description: "ИИ чиповете MTIA на Meta бързо се развиват, с четири поколения за две години, за ефективно мащабиране на GenAI и R&R изживявания за милиарди потребители." image: "/images/articles/meta-mtia-scale-ai-chips-for-billions.png" image_alt: "ИИ чипове MTIA на Meta на сървърна платка в шкаф на център за данни" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Meta schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Какво представляват чиповете MTIA на Meta и каква е тяхната цел?" answer: "Чиповете Meta Training and Inference Accelerator (MTIA) са персонализирани ИИ ускорители, разработени от Meta в партньорство с Broadcom. Тяхната основна цел е да захранват широкия набор от ИИ-управлявани изживявания в платформите на Meta за милиарди потребители. Това включва всичко – от персонализирани препоръки (R&R) до напреднали асистенти с генеративен изкуствен интелект (GenAI). Чрез разработването на собствен силиций, Meta цели да мащабира ИИ натоварванията рентабилно, да поддържа гъвкавост и да оптимизира производителността за своите специфични инфраструктурни нужди, осигурявайки непрекъснати иновации в развитието на ИИ хардуера."
  • question: "Колко поколения MTIA чипове е разработила Meta през последните години?" answer: "Meta бързо ускори разработката на MTIA, въвеждайки четири последователни поколения за по-малко от две години: MTIA 300, MTIA 400, MTIA 450 и MTIA 500. Тези чипове или вече са внедрени, или са планирани за масово внедряване през 2026 или 2027 г. Тази бърза итерация демонстрира 'стратегията на скоростта' на Meta, предназначена да поддържа темпото с изключително бързата еволюция на ИИ моделите и да гарантира, че техният хардуер остава в съответствие с текущите и бъдещи изисквания за натоварване, разширявайки се от първоначалните R&R задачи, за да обхване общ GenAI и специализиран GenAI инференс."
  • question: "Какво представлява 'стратегията на скоростта' на Meta за разработка на ИИ чипове?" answer: "'Стратегията на скоростта' на Meta е итеративен подход към разработката на ИИ чипове, който контрастира с традиционните, по-дълги цикли на проектиране на чипове. Осъзнавайки, че ИИ моделите се развиват по-бързо от типичната хардуерна разработка, Meta проектира всяко поколение MTIA така, че да надгражда предишното, използвайки модулни чиплети. Тази стратегия включва най-новите прозрения за ИИ натоварванията и хардуерни технологии, което позволява внедряване с по-кратък цикъл. Тази по-тясна обратна връзка гарантира, че персонализираният хардуер на Meta остава тясно съобразен с развиващите се ИИ модели, улеснявайки по-бързото приемане на нови технологии и поддържайки оптимална производителност и рентабилност."
  • question: "Как по-новите MTIA чипове (400, 450, 500) поддържат натоварвания с генеративен ИИ?" answer: "С възхода на GenAI, чиповете MTIA еволюираха значително, за да поддържат тези взискателни натоварвания. MTIA 400 подобри поддръжката за GenAI с 400% по-високи FP8 FLOPS и увеличена честотна лента на HBM. MTIA 450 е специално оптимизиран за GenAI инференция, като удвоява честотната лента на HBM, увеличава MX4 FLOPS със 75%, въвежда хардуерно ускорение за изчисления на attention и FFN и иновира с персонализирани типове данни с ниска точност. MTIA 500 допълнително подобри това, увеличавайки честотната лента на HBM с допълнителни 50% и въвеждайки повече иновации с ниска точност, директно отговаряйки на изискванията за изчислителна мощност и памет на сложни GenAI модели."
  • question: "Какви са ключовите подобрения в производителността от MTIA 300 до MTIA 500?" answer: "Семейството чипове MTIA отбеляза забележителни подобрения от серия 300 до серия 500 за по-малко от две години. Честотната лента на HBM се е увеличила 4.5 пъти, значително ускорявайки скоростта на достъп до паметта, което е от решаващо значение за големите ИИ модели. Изчислителните FLOPS (операции с плаваща запетая в секунда) са нараснали изумителните 25 пъти, особено от MX8 на MTIA 300 до MX4 форматите на MTIA 500. Тези драстични подобрения подчертават способността на Meta бързо да подобрява суровата изчислителна мощност и възможностите за обработка на данни на своя персонализиран силиций, за да посрещне нарастващите изисквания на напредналите ИИ модели."
  • question: "Защо паметта с висока честотна лента (HBM) е важна за производителността на GenAI инференцията?" answer: "Паметта с висока честотна лента (HBM) е от критично значение за производителността на инференцията на генеративен изкуствен интелект (GenAI), тъй като GenAI моделите, особено големите езикови модели (LLM), обикновено имат огромен брой параметри и изискват широка честотна лента на паметта, за да извличат и обработват тези параметри ефективно по време на инференция. Стъпката на декодиране при GenAI инференцията, която генерира токени последователно, често е ограничена от достъпа до паметта, а не от суровата изчислителна мощност. Удвояването или значителното увеличаване на честотната лента на HBM, както се наблюдава при MTIA 450 и 500, пряко води до по-бързо генериране на токени, по-ниска латентност и по-висока пропускателна способност, правейки ИИ изживяванията по-отзивчиви и ефективни за потребителите."

## Мащабиране на ИИ изживявания с чиповете MTIA на Meta

Всеки ден милиарди хора в разнообразните платформи на Meta взаимодействат с безброй ИИ-задвижвани функции, от персонализирани препоръки за съдържание до напреднали ИИ асистенти. Основното предизвикателство за Meta, а и за индустрията, се състои в разгръщането и непрекъснатото подобряване на тези сложни ИИ модели в глобален мащаб, като същевременно се поддържа оптимална рентабилност. Тази взискателна инфраструктурна задача се посреща от стратегическата инвестиция на Meta в гъвкави, непрекъснато развиващи се решения, в центъра на които са техните персонализирани ИИ чипове: семейството Meta Training and Inference Accelerator (MTIA).

Докато се ангажира с разнообразно силициево портфолио, което използва както вътрешни, така и външни решения, чиповете MTIA, разработени в тясно партньорство с Broadcom, са незаменим компонент от [стратегията за ИИ инфраструктура на Meta](/bg/scaling-ai-for-everyone). Тези собствено разработени ускорители са от решаващо значение за рентабилното захранване на ИИ изживяванията, които достигат до милиарди, постоянно адаптирайки се към бързо развиващия се пейзаж на ИИ моделите.

## Итеративната еволюция на чиповете MTIA на Meta

Пейзажът на ИИ моделите е в състояние на постоянен поток, развивайки се с темпо, което често надминава традиционните цикли на разработка на чипове. Осъзнавайки, че дизайните на чипове, базирани на прогнозирани натоварвания, могат да станат остарели до момента, в който хардуерът достигне производство, Meta възприе иновативна "стратегия на скоростта" за MTIA. Вместо дълги, спекулативни периоди на разработка, Meta приема итеративен подход, при който всяко поколение MTIA надгражда предишното. Това включва използването на модулни чиплети, включването на най-новите прозрения за ИИ натоварванията и внедряването на нови хардуерни технологии с значително по-кратък цикъл. Тази по-тясна обратна връзка гарантира, че персонализираният силиций на Meta остава тясно съобразен с динамичните изисквания на ИИ моделите, насърчавайки по-бързото приемане на нови постижения.

Meta вече е представила първите две поколения, MTIA 100 и MTIA 200, в академични доклади. Надграждайки тази основа, Meta ускори разработката, за да представи четири нови последователни поколения: MTIA 300, 400, 450 и 500. Тези чипове или вече са в производство, или са предвидени за масово внедряване през 2026 и 2027 г. Тази бърза последователност позволи на Meta значително да разшири покритието на MTIA за натоварвания, преминавайки от първоначалния инференс за ранжиране и препоръки (R&R) към R&R обучение, общи Generative AI (GenAI) натоварвания и високооптимизиран GenAI инференс.

## MTIA 300: Поставяне на основите за ИИ натоварвания

MTIA 300 отбеляза ключова стъпка в пътешествието на Meta с персонализиран силиций. Първоначално оптимизиран за R&R модели, които бяха доминиращите натоварвания на Meta преди бума на GenAI, неговите архитектурни градивни елементи създадоха здрава основа за последващите чипове. Ключови отличителни характеристики на MTIA 300 включват интегрирани NIC чиплети, специализирани двигатели за съобщения за разтоварване на комуникационни колективи и изчислителни възможности в близост до паметта, предназначени за колективи, базирани на редукция. Тези комуникационни компоненти с ниска латентност и висока честотна лента се оказаха от съществено значение за осигуряването на ефективен GenAI инференс и обучение в следващите поколения.

MTIA 300 се състои от един изчислителен чиплет, два мрежови чиплети и няколко стека памет с висока честотна лента (HBM). Всеки изчислителен чиплет разполага с мрежа от обработващи елементи (PEs), стратегически проектирани с излишни PEs за подобряване на добива. Всеки PE е сложна единица, съдържаща две RISC-V векторни ядра, двигател за скаларно произведение за умножение на матрици, специализиран функционален блок за активации и елементарни операции, двигател за редукция за натрупване и между-PE комуникация, и DMA двигател за ефективно преместване на данни в локалната бърза памет. Този сложен дизайн подчертава ангажимента на Meta за създаване на високоефективно и рентабилно решение за основните си ИИ задачи.

## MTIA 400: Постигане на конкурентна GenAI производителност

С безпрецедентния възход на генеративния ИИ, Meta бързо разви MTIA 300 в MTIA 400, за да осигури стабилна поддръжка за GenAI натоварвания, наред с вече съществуващите си R&R възможности. MTIA 400 представлява значителен скок, предлагайки 400% по-високи FP8 FLOPS и 51% увеличение на честотната лента на HBM в сравнение с предшественика си. Докато MTIA 300 се фокусираше върху рентабилността, MTIA 400 беше проектиран да осигурява сурова производителност, конкурентна на водещите търговски ИИ ускорители.

Това се постига чрез комбиниране на два изчислителни чиплети за ефективно удвояване на изчислителната плътност и чрез поддръжка на подобрени версии на MX8 и MX4, ключови формати с ниска точност за ефективен GenAI инференс. Единичен шкаф, оборудван със 72 устройства MTIA 400, свързани чрез комутирана задна платка, формира мощен домейн за мащабиране нагоре (scale-up). Тези системи се поддържат от усъвършенствани шкафове с въздушно-подпомагано течно охлаждане (AALC), улесняващи бързото внедряване дори в наследени центрове за данни, демонстрирайки прагматичния подход на Meta към глобалното мащабиране на своята ИИ инфраструктура.

## MTIA 450 и 500: Специализирани за GenAI инференция

Предвиждайки продължаващия експоненциален растеж в търсенето на GenAI инференция, Meta доразработи MTIA 400, което доведе до създаването на MTIA 450, а впоследствие и MTIA 500. Тези поколения са специално оптимизирани за уникалните предизвикателства на GenAI инференцията, фокусирайки се върху критични подобрения в паметта и изчислителната мощност.

**MTIA 450** направи значителни стъпки, като:
1.  **Удвояване на честотната лента на HBM** от предишната версия, което е от решаващо значение за ускоряване на фазата на декодиране в GenAI моделите.
2.  **Увеличаване на MX4 FLOPS със 75%**, ускорявайки изчисленията на feed-forward мрежите (FFN) в смеси от експерти (MoE), често срещани в големите езикови модели.
3.  **Въвеждане на хардуерно ускорение** за по-ефективни изчисления на attention и FFN, облекчавайки тесните места, свързани със Softmax и FlashAttention.
4.  **Иновации в типовете данни с ниска точност**, надхвърляйки FP8/MX8, за да осигури 6 пъти MX4 FLOPS от FP16/BF16, с персонализирани иновации в типовете данни, които запазват качеството на модела и увеличават FLOPS с минимално въздействие върху площта на чипа.

**MTIA 500**, надграждайки успеха на 450, допълнително увеличи честотната лента на HBM с още 50% и въведе повече иновации в типовете данни с ниска точност, укрепвайки ангажимента на Meta да разширява границите на производителността на GenAI инференцията. Този безмилостен стремеж към подобрение гарантира, че ИИ изживяванията на Meta остават на върха на технологиите.

Кумулативните постижения във всички тези поколения са поразителни. От MTIA 300 до MTIA 500, честотната лента на HBM се е увеличила с впечатляващите 4.5 пъти, докато изчислителните FLOPS са нараснали изумителните 25 пъти (от MX8 на MTIA 300 до MX4 на MTIA 500). Това бързо ускорение в рамките на две години е доказателство за стратегията на скоростта на Meta и способността ѝ непрекъснато да подобрява своя персонализиран силиций. Тази еволюция е от централно значение за [операционализирането на агентичен ИИ](/bg/operationalizing-agentic-ai-part-1-a-stakeholders-guide) и други сложни модели в мащаб.

Ето разбивка на ключовите спецификации за семейството MTIA:

| Функция                       | MTIA 300                                 | MTIA 400                                 | MTIA 450                                 | MTIA 500                                 |
| :---------------------------- | :--------------------------------------- | :--------------------------------------- | :--------------------------------------- | :--------------------------------------- |
| **Изчислителни ядра**         | 1                                        | 2                                        | 2                                        | 2                                        |
| **HBM стекове**               | 4                                        | 4                                        | 8                                        | 8                                        |
| **HBM честотна лента (GB/s)\*** | 100                                      | 151                                      | 302                                      | 453                                      |
| **MX8 FLOPS (TFLOPS)**        | 100                                      | 400                                      | 400                                      | 400                                      |
| **MX4 FLOPS (TFLOPS)**        | N/A                                      | 200                                      | 350                                      | 500                                      |
| **Размер на домейна за мащабиране нагоре** | 18 устройства\*\*                        | 72 устройства                            | 72 устройства                            | 72 устройства                            |
| **Ключова оптимизация**       | R&R обучение, комуникация с ниска латентност | Общ GenAI, конкурентна сурова производителност | GenAI инференция, HBM, персонализирана ниска точност | GenAI инференция, HBM, персонализирана ниска точност |

\*Някои доставчици отчитат двупосочна честотна лента. Умножете стойността в таблицата по две, за да получите съответната двупосочна честотна лента.<br/>
\*\*MTIA 300 е конфигуриран с мрежа за мащабиране навън (scale-out) с по-висока честотна лента (200 GB/s) поради относително малкия си размер на домейн за мащабиране нагоре и целевите R&R натоварвания.

Тези спецификации подчертават драстичните подобрения в честотната лента на паметта и изчислителната мощност, демонстрирайки как всяко поколение MTIA е прецизно проектирано да отговори на най-належащите изисквания на текущите и бъдещи ИИ приложения, особено ресурсоемките GenAI модели.

Безмилостният стремеж на Meta към персонализирани силициеви решения чрез семейството MTIA подчертава ангажимента ѝ да предоставя авангардни ИИ изживявания на милиарди потребители по света. Чрез комбиниране на вътрешни иновации със стратегически партньорства, Meta продължава да предефинира възможностите за мащабируема и рентабилна ИИ инфраструктура.

Често задавани въпроси

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели