Code Velocity
Model AI

Mistral Small 4: Menyatukan Keupayaan AI untuk Pembangun

·5 min bacaan·Mistral·Sumber asal
Kongsi
Gambar rajah yang menggambarkan seni bina Mistral Small 4 yang bersatu dengan keupayaan penaakulan, multimodal, dan arahan

title: "Mistral Small 4: Menyatukan Keupayaan AI untuk Pembangun" slug: "mistral-small-4" date: "2026-03-17" lang: "ms" source: "https://mistral.ai/news/mistral-small-4" category: "Model AI" keywords:

  • Mistral Small 4
  • Mistral AI
  • AI Multimodal
  • Model Penaakulan
  • Model Arahan
  • AI Sumber Terbuka
  • AI Efisien
  • Alat Pembangun
  • Senibina AI
  • NVIDIA AI
  • Pengekodan Agentik
  • Model Bahasa Besar meta_description: "Mistral Small 4 menyatukan keupayaan penaakulan, multimodal, dan arahan ke dalam satu model AI yang cekap, sumber terbuka, menawarkan fleksibiliti dan prestasi yang tiada tandingan kepada pembangun untuk pelbagai aplikasi." image: "/images/articles/mistral-small-4.png" image_alt: "Gambar rajah yang menggambarkan seni bina Mistral Small 4 yang bersatu dengan keupayaan penaakulan, multimodal, dan arahan" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Mistral schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Apakah itu Mistral Small 4 dan apakah yang menjadikannya unik?" answer: "Mistral Small 4 adalah keluaran utama terbaru dalam keluarga model 'Small' Mistral AI, secara unik menyatukan keupayaan model unggulan sebelumnya: Magistral untuk penaakulan kompleks, Pixtral untuk pemahaman multimodal, dan Devstral untuk pengekodan agentik. Ini bermakna pembangun tidak perlu lagi memilih antara model khusus untuk tugas yang berbeza; Mistral Small 4 menawarkan satu penyelesaian serba boleh yang mampu memberi arahan pantas, penaakulan yang kuat, dan bantuan multimodal, semuanya dengan usaha penaakulan yang boleh dikonfigurasi dan kecekapan terbaik dalam kelasnya. Ia dikeluarkan di bawah lesen Apache 2.0, menekankan komitmennya terhadap AI yang terbuka, mudah diakses, dan boleh disesuaikan, menjadikannya kemajuan penting untuk pembangun dan syarikat yang mencari penyelesaian AI bersepadu."
  • question: "Apakah inovasi seni bina utama dalam Mistral Small 4?" answer: "Mistral Small 4 memanfaatkan seni bina Mixture of Experts (MoE) yang canggih, menampilkan 128 pakar dengan 4 aktif setiap token, membolehkan penskalaan dan pengkhususan yang cekap. Ia mempunyai sejumlah 119 bilion parameter, dengan 6 bilion parameter aktif setiap token (8 bilion termasuk lapisan pembenaman dan output), menyediakan kuasa pemprosesan yang besar. Tetingkap konteks 256k menyokong interaksi bentuk panjang yang luas dan analisis dokumen terperinci. Selain itu, multimodaliti natifnya menerima input teks dan imej, membuka pelbagai kes penggunaan daripada penghuraian dokumen hingga analisis visual. Model ini juga menyertakan parameter 'reasoning_effort' yang boleh dikonfigurasi, membolehkan pelarasan dinamik antara kependaman rendah dan output penaakulan mendalam."
  • question: "Bagaimana Mistral Small 4 meningkatkan prestasi berbanding model sebelumnya?" answer: "Mistral Small 4 menunjukkan peningkatan prestasi yang signifikan, mencapai pengurangan 40% dalam masa penyelesaian hujung ke hujung dalam persediaan yang dioptimumkan untuk kependaman. Untuk penggunaan yang dioptimumkan untuk daya pemprosesan, ia memberikan 3x lebih banyak permintaan sesaat berbanding pendahulunya, Mistral Small 3. Kecekapan ini adalah kritikal untuk aplikasi perusahaan, kerana ia secara langsung mempengaruhi kos operasi dan skalabiliti. Penanda aras seperti LCR, LiveCodeBench, dan AIME 2025 menunjukkan Mistral Small 4, terutamanya dengan penaakulannya diaktifkan, menyamai atau mengatasi prestasi model yang lebih besar seperti GPT-OSS 120B, sambil menjana output yang jauh lebih pendek, dan dengan itu lebih cekap. Kecekapan 'prestasi setiap token' ini diterjemahkan kepada kos inferens yang lebih rendah dan pengalaman pengguna yang lebih baik."
  • question: "Apakah parameter 'reasoning_effort' dan bagaimana ia memberi manfaat kepada pengguna?" answer: "Parameter 'reasoning_effort' dalam Mistral Small 4 membolehkan pengguna melaraskan secara dinamik keamatan pengiraan model dan gaya output untuk memadankan tuntutan khusus tugas mereka. Menetapkan 'reasoning_effort="none"' menyediakan respons pantas, ringan yang sesuai untuk tugas harian, serupa dengan gaya sembang Mistral Small 3.2. Sebaliknya, 'reasoning_effort="high"' mendorong model untuk terlibat dalam penaakulan mendalam, langkah demi langkah, menghasilkan output yang lebih panjang dan lebih dipertimbangkan secara teliti yang setara dengan model Magistral sebelumnya. Konfigurasi ini memberikan fleksibiliti yang belum pernah terjadi sebelumnya, membolehkan pembangun mengoptimumkan sama ada untuk kelajuan atau kedalaman, bergantung pada kerumitan dan kritikalnya masalah yang dihadapi, dengan itu meningkatkan kecekapan dan ketepatan."
  • question: "Apakah kes penggunaan utama yang dimaksudkan untuk Mistral Small 4?" answer: "Mistral Small 4 direka untuk memenuhi spektrum pengguna dan aplikasi yang luas kerana keupayaannya yang serba boleh dan bersatu. Bagi pembangun, ia sesuai untuk automasi pengekodan, penerokaan pangkalan kod, dan melaksanakan aliran kerja agentik kod yang canggih. Syarikat boleh memanfaatkannya untuk pembantu sembang umum, pemahaman dokumen yang komprehensif, dan analisis multimodal lanjutan. Penyelidik akan mendapati ia tidak ternilai untuk masalah matematik kompleks, tugas penyelidikan mendalam, dan cabaran penaakulan yang rumit. Lesen sumber terbukanya selanjutnya menggalakkan penalaan halus dan pengkhususan, menjadikannya sesuai untuk hampir semua keperluan khusus domain, memastikan ia boleh menggerakkan generasi baharu alat dan perkhidmatan berpacukan AI."
  • question: "Bagaimana pembangun dan syarikat boleh mengakses Mistral Small 4?" answer: "Mistral Small 4 disediakan secara meluas melalui pelbagai saluran. Pembangun boleh mengaksesnya melalui Mistral API dan AI Studio untuk integrasi langsung ke dalam aplikasi mereka. Ia juga tersedia di Hugging Face Repository, memudahkan komuniti sumber terbuka untuk terlibat dan membangun berdasarkan ia. Bagi mereka yang memanfaatkan ekosistem NVIDIA, prototaip adalah percuma di build.nvidia.com, dan untuk pengeluaran, ia tersedia sebagai NVIDIA NIM (NVIDIA Inference Microservice), menawarkan inferens yang dioptimumkan dan berkontena. Selain itu, ia boleh disesuaikan dengan NVIDIA NeMo untuk penalaan halus khusus domain. Untuk penggunaan peringkat perusahaan, penalaan halus tersuai, atau penyelesaian di premis, Mistral AI menggalakkan hubungan langsung dengan pasukan mereka untuk memudahkan integrasi yang disesuaikan."
  • question: "Apakah yang disiratkan oleh keluaran Mistral Small 4 untuk AI sumber terbuka?" answer: "Keluaran Mistral Small 4 di bawah lesen Apache 2.0 dengan kuat menegaskan semula komitmen mendalam Mistral AI kepada komuniti sumber terbuka dan AI yang mudah diakses. Dengan menyatukan keupayaan arahan, penaakulan, dan multimodal yang canggih ke dalam satu model yang cekap, dan tersedia secara terbuka, Mistral Small 4 merendahkan halangan kemasukan untuk pembangun dan organisasi. Ia memudahkan integrasi AI, membolehkan pelbagai tugas ditangani dengan satu alat yang boleh disesuaikan, secara langsung menterjemahkan manfaat AI sumber terbuka ke dalam aplikasi dunia nyata. Langkah ini bukan sahaja memupuk kerjasama dan inovasi tetapi juga menyediakan asas yang kuat dan serba boleh di mana komuniti AI global dapat membina generasi sistem pintar yang akan datang, sejajar dengan inisiatif seperti NVIDIA Nemotron Coalition."

# Mistral Small 4: Menyatukan Keupayaan AI untuk Pembangun

Mistral AI telah memperkenalkan **Mistral Small 4**, model terobosan yang ditetapkan untuk mentakrifkan semula fleksibiliti dan kecekapan dalam landskap AI. Keluaran terbaru ini menandakan langkah penting dalam menyatukan keupayaan AI yang berbeza—penaakulan, multimodaliti, dan arahan—ke dalam satu model yang boleh disesuaikan. Untuk pembangun, penyelidik, dan syarikat, Mistral Small 4 menjanjikan pendekatan yang diperkemas untuk membina aplikasi AI lanjutan tanpa perlu menguruskan model khusus.

Dari segi sejarah, model AI sering cemerlang dalam domain tertentu: ada yang pantas dalam melaksanakan arahan, yang lain menunjukkan penaakulan yang kuat, dan beberapa yang terpilih menawarkan pemahaman multimodal. Mistral Small 4 memecahkan paradigma ini dengan mengintegrasikan kekuatan model unggulan Mistral AI sebelumnya—Magistral untuk penaakulan, Pixtral untuk input multimodal, dan Devstral untuk pengekodan agentik—ke dalam satu unit yang padu. Penyatuan ini bukan hanya satu kemudahan; ia adalah langkah strategik ke arah AI yang lebih cekap, berskala, dan mesra pembangun.

Dikeluarkan di bawah lesen permisif Apache 2.0, Mistral Small 4 menekankan dedikasi Mistral AI kepada prinsip sumber terbuka, memupuk ekosistem kolaboratif di mana inovasi dapat berkembang. Komitmen terhadap kebolehcapaian ini memastikan bahawa teknologi AI terkini bukan hanya untuk segelintir, tetapi tersedia untuk komuniti global yang tidak sabar-sabar untuk melampaui batasan kemungkinan.

## Inovasi Seni Bina Mendorong Prestasi Mistral Small 4

Mistral Small 4 direka dengan seni bina canggih yang direka untuk prestasi yang mantap dan kecekapan yang luar biasa. Sebagai model hibrid, ia dioptimumkan dengan teliti untuk pelbagai tugas, termasuk sembang umum, pengekodan kompleks, aliran kerja agentik yang rumit, dan penaakulan canggih. Keupayaannya untuk memproses input teks dan imej secara natif meletakkannya sebagai penyelesaian yang benar-benar serba boleh untuk aplikasi AI moden.

Pusat kepada reka bentuknya adalah seni bina **Mixture of Experts (MoE)**, menampilkan 128 pakar dengan 4 aktif setiap token. Ini membolehkan penskalaan dan pengkhususan yang cekap, membolehkan model melibatkan bahagian rangkaian yang paling relevan secara dinamik untuk sebarang tugas yang diberikan. Dengan 119 bilion jumlah parameter dan 6 bilion parameter aktif setiap token (8 bilion termasuk lapisan pembenaman dan output), Mistral Small 4 mengandungi kuasa pengkomputeran yang besar sambil mengekalkan jejak yang cekap.

Ciri penting adalah **tetingkap konteks 256k** yang luas, menyokong interaksi bentuk panjang yang luar biasa dan analisis dokumen mendalam. Konteks lanjutan ini adalah kritikal untuk tugas yang memerlukan pemahaman komprehensif terhadap sejumlah besar teks, seperti semakan undang-undang, penyelidikan saintifik, atau analisis kod yang luas. Tambahan pula, model ini memperkenalkan **usaha penaakulan yang boleh dikonfigurasi**, membolehkan pengguna beralih antara respons pantas, kependaman rendah dan output yang mendalam, berasaskan penaakulan, memberikan kawalan yang belum pernah terjadi sebelumnya terhadap prestasi dan gaya output.

Multimodaliti natif Mistral Small 4 adalah pengubah permainan, menerima input teks dan imej. Ini membuka pelbagai kes penggunaan yang luas, daripada penghuraian dokumen pintar dan carian visual kepada penjanaan dan analisis imej-teks yang canggih, menjadikannya alat yang sangat diperlukan untuk generasi baharu aplikasi berkuasa AI.

## Kecekapan dan Keupayaan Bersatu untuk AI Perusahaan

Reka bentuk Mistral Small 4 diterjemahkan secara langsung kepada faedah prestasi yang ketara, menetapkan standard baharu untuk kecekapan dalam model bahasa besar. Berbanding dengan pendahulunya, Mistral Small 3, model baharu ini memberikan pengurangan 40% dalam masa penyelesaian hujung ke hujung dalam persediaan yang dioptimumkan untuk kependaman. Untuk aplikasi yang memerlukan daya pemprosesan tinggi, ia mempunyai peningkatan yang luar biasa sebanyak 3x dalam permintaan sesaat.

Lompatan dalam kecekapan ini adalah kritikal untuk penggunaan perusahaan, di mana kos dan kelajuan adalah yang paling utama. Reka bentuk pintar Mistral Small 4 memastikan organisasi dapat mencapai lebih banyak dengan sumber yang lebih sedikit, menterjemahkan kepada kos operasi yang lebih rendah dan pengalaman pengguna yang unggul. Keupayaan model untuk menjana skor kompetitif pada penanda aras seperti LCR, LiveCodeBench, dan AIME 2025—menyamai atau mengatasi model yang lebih besar seperti GPT-OSS 120B—sambil menghasilkan output yang jauh lebih pendek adalah bukti kecekapan "prestasi setiap token" nya. Ini bermakna respons yang lebih pantas, kos inferens yang berkurangan, dan skalabiliti yang lebih baik untuk tugas yang kompleks dan berisiko tinggi.

### Sorotan Prestasi: Mistral Small 4 vs. Model Sebelumnya

| Metrik                         | Mistral Small 4 (Dioptimumkan-Kependaman) | Mistral Small 4 (Dioptimumkan-Daya Pemprosesan) | Mistral Small 3    | GPT-OSS 120B (Rujukan) |
| :----------------------------- | :---------------------------------------- | :--------------------------------------------- | :----------------- | :----------------------- |
| Masa Penyelesaian Hujung ke Hujung | Pengurangan 40%                          | —                                              | Asas               | —                        |
| Permintaan sesaat (RPS)        | —                                         | Peningkatan 3x                                 | Asas               | —                        |
| Skor Penanda Aras LCR          | 0.72                                      | 0.72                                           | —                  | Disamai/Dilebihi         |
| Panjang Output LCR             | 1.6K aksara                               | 1.6K aksara                                    | —                  | 3.5-4x lebih panjang     |
| Skor Penanda Aras LiveCodeBench | Mengatasi                                 | Mengatasi                                      | —                  | Mengatasi                |
| Panjang Output LiveCodeBench   | 20% Kurang                                | 20% Kurang                                     | —                  | Asas                     |

Parameter 'reasoning_effort' selanjutnya meningkatkan kecekapan ini, membolehkan pembangun menyesuaikan tingkah laku model berdasarkan keperluan tugas. Untuk sembang harian dan respons pantas, `reasoning_effort="none"` memberikan output pantas, ringan. Untuk penyelesaian masalah kompleks, menetapkan `reasoning_effort="high"` melibatkan penaakulan mendalam, langkah demi langkah, serupa dengan kefasihan terperinci model Magistral sebelumnya. Konfigurasi dinamik ini memastikan penggunaan sumber yang optimum, menjadikan Mistral Small 4 sebuah pusat kuasa adaptif untuk pelbagai aplikasi.

## Meluaskan Horizon: Kes Penggunaan dan Kebolehcapaian

Mistral Small 4 bersedia untuk memperkasakan pelbagai pengguna dan industri. Bagi pembangun, ia adalah alat yang tidak ternilai untuk **automasi pengekodan**, **penerokaan pangkalan kod**, dan mencipta [aliran kerja agentik](/ms/github-agentic-workflows) yang canggih. Keupayaannya untuk memahami dan menjana kod dengan cekap akan mempercepatkan kitaran pembangunan dan memupuk inovasi.

Syarikat akan mendapati Mistral Small 4 amat diperlukan untuk **pembantu sembang umum**, **pemahaman dokumen** yang canggih, dan **analisis multimodal** yang komprehensif. Daripada meningkatkan sokongan pelanggan dengan chatbot pintar hingga mengautomasikan pengekstrakan data daripada dokumen kompleks, keupayaan bersatunya memperkemas operasi dan membuka pandangan baharu.

Penyelidik, terutamanya dalam bidang yang menuntut analisis teliti, akan mendapat manfaat daripada kehebatannya dalam **matematik**, **penyelidikan**, dan **tugas penaakulan kompleks**. Keupayaan untuk memproses sejumlah besar maklumat dan melakukan penaakulan mendalam menjadikannya pembantu yang kuat untuk penemuan saintifik dan penyelidikan akademik.

Komitmen Mistral AI terhadap sumber terbuka, yang ditunjukkan melalui lesen Apache 2.0, memperkuat lagi impaknya. Ini membolehkan fleksibiliti yang tiada tandingan dalam **penalaan halus dan pengkhususan**, membolehkan organisasi menyesuaikan model kepada keperluan khusus domain unik mereka. Semangat kolaboratif ini sejajar dengan pergerakan yang lebih luas untuk menjadikan AI lanjutan mudah diakses, menggambarkan visi [menskalakan AI untuk semua orang](/ms/scaling-ai-for-everyone).

### Ketersediaan dan Integrasi Ekosistem

Mengakses Mistral Small 4 adalah mudah. Pembangun boleh mengintegrasikannya melalui **Mistral API** dan **AI Studio**. Ia juga tersedia dengan mudah di **Hugging Face Repository**, menyediakan platform yang biasa untuk komuniti sumber terbuka.

Bagi mereka yang beroperasi dalam ekosistem NVIDIA, prototaip Mistral Small 4 tersedia secara percuma di build.nvidia.com. Untuk penggunaan gred pengeluaran, model ini ditawarkan dari hari pertama sebagai **NVIDIA NIM (NVIDIA Inference Microservice)**, memastikan inferens yang dioptimumkan dan berkontena terus dari kotak. Penyesuaian untuk penalaan halus khusus domain juga disokong melalui **NVIDIA NeMo**. Rangkaian sokongan yang luas ini menyerlahkan perkongsian strategik antara Mistral AI dan NVIDIA, memperkukuhkan matlamat bersama mereka untuk memajukan inovasi AI.

Dokumentasi teknikal komprehensif boleh diakses di AI Governance Hub Mistral AI, menyediakan sumber penting untuk pembangun dan pengintegrasi. Untuk penggunaan perusahaan yang lebih besar, penalaan halus tersuai, atau penyelesaian di premis, Mistral AI menggalakkan penglibatan langsung dengan pasukan pakar mereka.

## Masa Depan AI Adalah Terbuka dan Bersatu

Mistral Small 4 mewakili lompatan penting dalam evolusi model AI. Dengan berjaya menyatukan keupayaan arahan, penaakulan, dan multimodal ke dalam satu pakej yang sangat cekap dan boleh diakses secara terbuka, Mistral AI telah memudahkan integrasi AI dan memperkasakan pengguna di semua sektor. Keupayaan adaptasi ini bermakna pembangun dan organisasi dapat menangani pelbagai tugas yang lebih luas dengan satu alat yang mantap, secara berkesan membawa manfaat transformatif AI sumber terbuka kepada aplikasi dunia nyata.

Keluaran ini bukan sahaja memperkemas proses pembangunan tetapi juga mendemokrasikan akses kepada keupayaan AI lanjutan, memupuk komuniti AI global yang lebih inovatif dan kolaboratif. Masa depan AI, seperti yang dibayangkan oleh Mistral AI, adalah di mana alat yang berkuasa dan serba boleh tersedia dengan mudah, membolehkan setiap orang menyumbang kepada bab seterusnya kemajuan teknologi.

Soalan Lazim

What is Mistral Small 4 and what makes it unique?
Mistral Small 4 is the latest major release in Mistral AI's 'Small' model family, uniquely unifying the capabilities of their previous flagship models: Magistral for complex reasoning, Pixtral for multimodal understanding, and Devstral for agentic coding. This means developers no longer need to choose between specialized models for different tasks; Mistral Small 4 offers a single, versatile solution capable of fast instruction, powerful reasoning, and multimodal assistance, all with configurable reasoning effort and best-in-class efficiency. It's released under an Apache 2.0 license, emphasizing its commitment to open, accessible, and customizable AI, making it a significant advancement for developers and enterprises seeking integrated AI solutions.
What are the key architectural innovations in Mistral Small 4?
Mistral Small 4 leverages a sophisticated Mixture of Experts (MoE) architecture, featuring 128 experts with 4 active per token, allowing for efficient scaling and specialization. It boasts a total of 119 billion parameters, with 6 billion active parameters per token (8 billion including embedding and output layers), providing substantial processing power. A 256k context window supports extensive long-form interactions and detailed document analysis. Furthermore, its native multimodality accepts both text and image inputs, unlocking a vast array of use cases from document parsing to visual analysis. The model also includes a configurable 'reasoning_effort' parameter, allowing dynamic adjustment between low-latency and deep reasoning outputs.
How does Mistral Small 4 enhance performance compared to previous models?
Mistral Small 4 demonstrates significant performance enhancements, achieving a 40% reduction in end-to-end completion time in latency-optimized setups. For throughput-optimized deployments, it delivers 3x more requests per second compared to its predecessor, Mistral Small 3. This efficiency is critical for enterprise applications, as it directly impacts operational costs and scalability. Benchmarks like LCR, LiveCodeBench, and AIME 2025 show Mistral Small 4, particularly with its reasoning enabled, matching or surpassing the performance of larger models like GPT-OSS 120B, while generating significantly shorter, and thus more efficient, outputs. This 'performance per token' efficiency translates to lower inference costs and improved user experience.
What is the 'reasoning_effort' parameter and how does it benefit users?
The 'reasoning_effort' parameter in Mistral Small 4 allows users to dynamically adjust the model's computational intensity and output style to match the specific demands of their task. Setting 'reasoning_effort='none'' provides fast, lightweight responses suitable for everyday tasks, akin to the chat style of Mistral Small 3.2. Conversely, 'reasoning_effort='high'' prompts the model to engage in deep, step-by-step reasoning, producing more verbose and thoroughly considered outputs equivalent to previous Magistral models. This configurability provides unprecedented flexibility, enabling developers to optimize for either speed or depth, depending on the complexity and criticality of the problem at hand, thereby enhancing both efficiency and accuracy.
What are the primary intended use cases for Mistral Small 4?
Mistral Small 4 is designed to cater to a broad spectrum of users and applications due to its versatile, unified capabilities. For developers, it's ideal for coding automation, codebase exploration, and implementing sophisticated code agentic workflows. Enterprises can leverage it for general chat assistants, comprehensive document understanding, and advanced multimodal analysis. Researchers will find it invaluable for complex math problems, in-depth research tasks, and intricate reasoning challenges. Its open-source license further encourages fine-tuning and specialization, making it adaptable for almost any domain-specific requirement, ensuring it can power a new generation of AI-driven tools and services.
How can developers and enterprises access Mistral Small 4?
Mistral Small 4 is made broadly accessible through multiple channels. Developers can access it via the Mistral API and AI Studio for direct integration into their applications. It's also available on the Hugging Face Repository, making it easy for the open-source community to engage with and build upon. For those leveraging NVIDIA's ecosystem, prototyping is free on build.nvidia.com, and for production, it's available as an NVIDIA NIM (NVIDIA Inference Microservice), offering optimized, containerized inference. Additionally, it can be customized with NVIDIA NeMo for domain-specific fine-tuning. For enterprise-grade deployments, custom fine-tuning, or on-premises solutions, Mistral AI encourages direct contact with their team to facilitate tailored integration.
What does Mistral Small 4's release signify for open-source AI?
The release of Mistral Small 4 under the Apache 2.0 license strongly reaffirms Mistral AI's deep commitment to the open-source community and accessible AI. By unifying advanced instruct, reasoning, and multimodal capabilities into a single, efficient, and openly available model, Mistral Small 4 lowers barriers to entry for developers and organizations. It simplifies AI integration, allowing for a wider range of tasks to be tackled with a single adaptable tool, directly translating the benefits of open-source AI into real-world applications. This move not only fosters collaboration and innovation but also provides a powerful, versatile foundation upon which the global AI community can build the next generation of intelligent systems, aligning with initiatives like the NVIDIA Nemotron Coalition.

Kekal Dikemas Kini

Dapatkan berita AI terkini dalam peti masuk anda.

Kongsi