Code Velocity
AI Perusahaan

GTC 2026: Dell Enterprise Hub Mendefinisikan Ulang AI Terbuka untuk Bisnis

·7 mnt baca·Hugging Face, Dell Technologies, NVIDIA·Sumber asli
Bagikan
Dell Enterprise Hub di GTC 2026 menampilkan infrastruktur AI perusahaan

Sorotan GTC 2026: Garis Batas Sistem AI yang Semakin Kabur

Pada GTC 2026, wacana seputar Kecerdasan Buatan telah bergeser dengan jelas. Lanskap AI modern tidak lagi didefinisikan oleh kehebatan satu model yang monolitik, melainkan oleh sistem yang canggih dan terorkestrasi. Arsitektur yang rumit ini secara mulus mengintegrasikan banyak model khusus, agen otonom, berbagai sumber data, dan komponen memori berlapis yang dirancang untuk menangkap lingkungan dan maksud pengguna. Ini adalah tarian elemen komputasi yang kompleks, dan tidak mengherankan jika istilah "Harness Engineering" dengan cepat mendapatkan adopsi luas untuk menggambarkan seni dan ilmu membangun solusi AI yang tangguh dan multifaset.

Pergeseran ini menggarisbawahi kebenaran mendasar: penyebaran AI perusahaan yang berhasil menuntut lebih dari sekadar algoritma yang kuat; ini membutuhkan infrastruktur holistik yang mendukung interoperabilitas, keamanan, dan skalabilitas. Dell Enterprise Hub, yang ditampilkan secara menonjol di GTC 2026, muncul sebagai pemain kunci dalam narasi yang berkembang ini, menawarkan visi konkret tentang bagaimana bisnis dapat menavigasi kompleksitas batas AI baru ini.

Kekuatan Pemersatu AI Sumber Terbuka di Perusahaan

Unggahan blog NVIDIA, dengan judul yang tepat "Masa Depan AI Adalah Terbuka dan Kepemilikan", mengartikulasikan realitas krusial: ekosistem AI berkembang pesat karena sinergi model terbuka dan kepemilikan. Ini bukan permainan 'zero-sum', melainkan hubungan komplementer di mana setiap jenis model melayani kebutuhan perusahaan yang berbeda, namun seringkali saling terkait, dalam sistem AI yang lebih luas. Dalam paradigma ini, model sumber terbuka telah menjadi landasan tak terpisahkan dari strategi AI perusahaan, dan keunggulannya multifaset:

  1. Kepercayaan dan Transparansi: Bagi perusahaan, kemampuan untuk diperiksa sangat penting. Seperti yang diamati Anjney Midha dari AMP PBC, "jauh lebih mudah untuk mempercayai sistem terbuka." Kemampuan untuk mengaudit, memverifikasi, dan memahami cara kerja internal model terbuka sangat penting untuk kepatuhan regulasi, manajemen risiko, dan membangun kepercayaan pada keputusan yang didorong AI. Tingkat pengawasan ini seringkali tidak dapat dicapai dengan sistem kepemilikan yang tertutup.
  2. Kustomisasi dan Spesialisasi: Model terbuka menyediakan fondasi yang fleksibel. Organisasi dapat mengambil kemampuan dasar ini dan menggabungkannya dengan kumpulan data kepemilikan mereka yang unik, menyempurnakannya untuk menciptakan solusi AI khusus yang menghasilkan nilai bisnis yang khas. Penyesuaian khusus ini merupakan pembeda signifikan yang sulit ditandingi oleh sistem tertutup.
  3. Efisiensi Biaya: Implikasi ekonominya sangat mendalam. Tanpa harga per-token, model terbuka menawarkan biaya operasional yang dapat diprediksi dan seringkali jauh lebih rendah dalam skala besar. Ini membuat mereka menarik secara ekonomi untuk aplikasi perusahaan bervolume tinggi di mana biaya panggilan API dari model kepemilikan dapat dengan cepat menjadi sangat mahal.
  4. Kecepatan Inovasi: Ekosistem sumber terbuka adalah wadah inovasi yang cepat. Ribuan peneliti dan pengembang secara global berkontribusi pada kemajuannya, menghasilkan siklus pengembangan yang lebih cepat, perbaikan bug yang lebih cepat, dan aliran peningkatan berkelanjutan yang melampaui upaya perusahaan mana pun. Semangat kolaboratif ini memastikan perusahaan yang memanfaatkan sumber terbuka tetap berada di garis depan.

Konvergensi faktor-faktor ini menempatkan model sumber terbuka bukan hanya sebagai alternatif, tetapi sebagai blok bangunan fundamental untuk infrastruktur AI perusahaan yang tangguh, inovatif, dan hemat biaya.

Dell Enterprise Hub: Pusat AI Tingkat Perusahaan

Dell Enterprise Hub menonjol sebagai jembatan unik antara inovasi AI sumber terbuka yang dinamis dan tuntutan ketat infrastruktur perusahaan. Pendekatan komprehensifnya mengatasi tantangan utama dalam penyebaran AI, terutama dalam Optimasi Multi-Platform dan Arsitektur Keamanan Prioritas Perusahaan.

Hub ini dengan bijak mengakui bahwa perusahaan beroperasi di lingkungan perangkat keras yang heterogen. Ia menawarkan penyebaran model siap pakai yang dioptimalkan di seluruh penyedia silikon utama, memastikan fleksibilitas dan mencegah vendor lock-in:

  • Platform Dell bertenaga GPU NVIDIA H100/H200
  • Platform Dell bertenaga AMD MI300X
  • Platform Dell bertenaga Intel Gaudi 3

Strategi multi-vendor ini memastikan kinerja optimal untuk setiap platform sambil memberikan kebebasan kepada perusahaan untuk memilih perangkat keras yang paling sesuai dengan infrastruktur yang ada atau persyaratan beban kerja tertentu.

Selain kinerja, keamanan adalah yang terpenting. Platform ini memperkenalkan fitur keamanan inovatif yang dirancang untuk kepatuhan dan kepercayaan perusahaan:

  • Pemindaian Repositori: Setiap model yang dihosting di Dell Enterprise Hub dipindai secara ketat untuk malware dan format serialisasi yang tidak aman, mengurangi risiko rantai pasokan.
  • Keamanan Kontainer: Citra Docker kustom secara teratur dipindai menggunakan alat seperti AWS Inspector untuk mengidentifikasi dan memperbaiki kerentanan, menjaga lingkungan penyebaran yang aman.
  • Verifikasi Asal: Untuk memastikan integritas, citra kontainer ditandatangani dan menyertakan checksum SHA384, memungkinkan perusahaan untuk memverifikasi keaslian dan imutabilitas aset AI yang mereka sebarkan.
  • Tata Kelola Akses: Token akses Hugging Face standar digunakan untuk menegakkan izin akses model yang tepat, memastikan hanya pengguna dan sistem yang berwenang yang berinteraksi dengan sumber daya AI sensitif.

Lebih jauh lagi, Arsitektur Terpisah untuk Manajemen Siklus Hidup mewakili lompatan maju yang signifikan. Dengan memisahkan kontainer dari bobot model, perusahaan mendapatkan:

  • Kontrol Versi: Kemampuan untuk 'mematok' tag kontainer yang tepat dalam produksi sambil menguji versi yang lebih baru di lingkungan staging, memfasilitasi pembaruan dan pengembalian versi tanpa hambatan.
  • Fleksibilitas: Opsi untuk menarik bobot model saat runtime atau mengunduh terlebih dahulu untuk lingkungan terisolasi (air-gapped), melayani persyaratan jaringan dan keamanan yang beragam.
  • Pemeliharaan: Pembaruan independen pada mesin inferensi tanpa memengaruhi bobot model, menyederhanakan pemeliharaan dan mengurangi waktu henti penyebaran.

Mentransformasi Penyebaran AI dengan Dell AI SDK

Meskipun infrastruktur dasarnya sangat penting, pengalaman pengguna dalam menyebarkan model AI secara historis menjadi hambatan signifikan. Di sinilah SDK Python dan CLI 'dell-ai' benar-benar bersinar, mengubah penyebaran AI dari tugas yang memakan waktu berhari-hari menjadi tugas yang dapat diselesaikan dalam beberapa menit. Ini bukan hanya alat baris perintah lainnya; ini adalah orkestrator cerdas.

Janji realitas penyebaran 5 menit sangat menarik:

# Install the SDK
pip install dell-ai

# Login once
dell-ai login

# Find your model
dell-ai models list

# Deploy in one command
dell-ai models get-snippet --model-id meta-llama/Llama-4-Maverick-17B-128E-Instruct --platform-id xe9680-nvidia-h200 --engine docker --gpus 8 --replicas 1

Perintah sederhana ini menghilangkan kompleksitas yang sangat besar. SDK secara otomatis mencocokkan model dengan perangkat keras Dell spesifik Anda, menghasilkan konfigurasi penyebaran yang optimal, menangani alokasi memori GPU yang rumit, dan menerapkan optimasi khusus platform, semuanya tanpa memerlukan keahlian Docker mendalam atau konfigurasi manual.

Integrasi Python yang Benar-Benar Berfungsi memperluas kemudahan penggunaan ini untuk penyebaran secara terprogram:

from dell_ai.client import DellAIClient

client = DellAIClient()

# Get deployment snippet for any model
snippet = client.get_deployment_snippet(
    model_id="nvidia/Nemotron-3-Super-120B-A12B",
    platform_id="xe9680-nvidia-h200",
    engine="docker",
    num_gpus=8
)

# Deploy programmatically
client.deploy_model(snippet)

SDK ini menangani detail rumit optimasi multi-platform, versi kontainer dengan pembaruan otomatis, pemindaian keamanan untuk kepatuhan, dan alokasi sumber daya cerdas berdasarkan persyaratan model.

Mengapa Ini Penting bagi Tim Perusahaan:

  • Bagi Insinyur DevOps: Ini menghilangkan kebutuhan akan panduan penyebaran yang ekstensif dan spesifik model. Kecerdasan platform SDK mengoptimalkan untuk perangkat keras Anda.
  • Bagi Ilmuwan Data: Ini memungkinkan mereka untuk menyebarkan model secara efisien tanpa perlu menjadi ahli infrastruktur, membebaskan mereka untuk fokus pada pengembangan AI.
  • Bagi Arsitek Perusahaan: Ini memungkinkan standarisasi penyebaran AI di seluruh tim, memastikan cuplikan penyebaran yang terkontrol versi dan dapat diaudit.
  • Bagi Tim Keamanan: Setiap penyebaran menggunakan kontainer yang telah dipindai sebelumnya dengan checksum yang diverifikasi dan citra yang ditandatangani, secara signifikan memperkuat postur keamanan.

Pengubah permainan yang sesungguhnya adalah Kecerdasan Platform yang tertanam dalam Dell AI SDK. Ini memahami model mana yang berkinerja terbaik pada platform Dell tertentu, konfigurasi GPU yang optimal, persyaratan memori, faktor penskalaan, dan karakteristik kinerja di berbagai generasi perangkat keras. Ini mengubah "menyebarkan model" dari proyek penelitian menjadi satu perintah yang percaya diri.

Model Terbuka Generasi Berikutnya di Dell Enterprise Hub

Dell Enterprise Hub bukan hanya tentang infrastruktur; ini juga tentang memberdayakan perusahaan dengan akses ke model sumber terbuka paling canggih. GTC 2026 menyoroti beberapa di antaranya, masing-masing membawa inovasi arsitektur unik dan dampak perusahaan.

Keluarga ModelInovasi/Fitur UtamaDampak Perusahaan
NVIDIA Nemotron 3 SuperMoE, Prediksi Multi-Token, NVFP4, Multi-bahasaAI percakapan efisiensi tinggi, siap produksi, dukungan bahasa beragam untuk operasi global.
Qwen3.5-397B-A17BMultimodal Sejati, Apache 2.0, MoE CanggihPemrosesan gambar/teks tanpa hambatan, kejelasan hukum untuk penggunaan komersial, penalaran lintas-modal yang kuat.
Qwen3.5-27BUkuran Optimal, Fokus PenalaranKeseimbangan kapabilitas/biaya, khusus untuk tugas analitis kompleks di lingkungan terbatas sumber daya.
Qwen3.5-9BSiap Edge, Hemat Biaya, SerbagunaPenyebaran lokal yang efisien pada perangkat edge, ramah anggaran, dapat disesuaikan untuk berbagai tugas.
Qwen3-Coder-NextBerbasis Kode, 79B parameter, Penalaran Canggih, Perlindungan IPGenerasi kode yang aman dan akurasi tinggi, dapat disetel pada basis kode kepemilikan, melindungi IP.

NVIDIA Nemotron 3 Super 120B-A12B adalah pembangkit tenaga listrik untuk AI percakapan perusahaan. Arsitektur Latent Mixture of Experts (MoE)-nya (total 120B, 12B parameter aktif) memastikan efisiensi yang luar biasa. Fitur-fitur seperti Prediksi Multi-Token (MTP) untuk inferensi yang lebih cepat dan optimasi NVFP4 untuk mengurangi jejak memori, dikombinasikan dengan dukungan multi-bahasa asli (Inggris, Prancis, Spanyol, Italia, Jerman, Jepang, Tiongkok), menjadikannya ideal untuk layanan pelanggan global dan alat komunikasi internal.

Keluarga Model Qwen3.5 menunjukkan skalabilitas dan keserbagunaan sumber terbuka. Qwen3.5-397B-A17B adalah raksasa multimodal, secara unik memproses gambar dan teks dengan arsitektur multimodal sejati dan Lisensi Apache 2.0 yang ramah perusahaan. Ini memungkinkan pemahaman yang kaya akan dokumen dunia nyata dan data visual. Saudara-saudara kecilnya, Qwen3.5-27B dan Qwen3.5-9B, mencapai rasio kapabilitas-terhadap-biaya yang optimal, dengan model 9B yang sangat cocok untuk penyebaran di edge sambil mempertahankan kapabilitas yang kuat.

Akhirnya, Qwen3-Coder-Next muncul sebagai revolusi pemrograman. Dengan 79B parameter dan desain berbasis kode, ini dibangun dari awal untuk generasi kode yang kompleks, menawarkan penalaran canggih untuk pemecahan masalah multi-langkah. Yang terpenting bagi perusahaan, kemampuan penyebaran di tempatnya memastikan perlindungan IP dan memungkinkan pelatihan kustom pada basis kode kepemilikan, mempercepat pengembangan perangkat lunak yang aman.

Model-model ini, yang terintegrasi dalam Dell Enterprise Hub, melampaui kapabilitas teoretis untuk menawarkan solusi yang nyata dan siap produksi untuk berbagai kebutuhan AI perusahaan.

Renaisans AI Perusahaan: Sumber Terbuka sebagai Infrastruktur

Wawasan dari GTC 2026, terutama melalui lensa Dell Enterprise Hub, menandakan momen penting dalam evolusi AI perusahaan. Ini adalah renaisans yang didorong oleh pengakuan bahwa model sumber terbuka, ketika diintegrasikan dengan benar dan diamankan dalam infrastruktur tingkat perusahaan, membuka potensi yang belum pernah terjadi sebelumnya.

Narasi ini bergeser Dari Model ke Sistem. Seperti yang dikatakan Aravind Srinivas dari Perplexity, perusahaan kini membutuhkan "orkestra multimodal, multi-model, dan multi-cloud." Masa depan bukan tentang berkomitmen pada satu model AI, melainkan tentang mengorkestrasi banyak model khusus menjadi sistem yang kohesif dan cerdas. Kemampuan Dell Enterprise Hub untuk menyebarkan dan mengelola berbagai model ini pada perangkat keras yang dioptimalkan adalah bukti visi ini.

Ini juga menandai transformasi Dari Pusat Biaya menjadi Pusat Nilai. Dengan menjalankan model sumber terbuka pada infrastruktur Dell yang khusus, AI beralih dari biaya API yang berulang menjadi aset strategis. Kustomisasi, integrasi data kepemilikan, dan kontrol di tempat berarti aset AI meningkat nilainya, menjadi komponen inti dari keunggulan kompetitif bisnis.

Pada akhirnya, dorongannya adalah Dari Kotak Hitam menjadi Kotak Kaca. AI perusahaan harus dapat dijelaskan, diaudit, dan dipercaya. Kualitas-kualitas ini secara inheren disediakan oleh solusi sumber terbuka, di mana transparansi memungkinkan inspeksi dan validasi yang mendalam. Fitur keamanan dan model tata kelola Dell Enterprise Hub yang kuat semakin memperkuat hal ini, memastikan bahwa perusahaan dapat menyebarkan AI dengan keyakinan dan integritas.

Sebagai kesimpulan, GTC 2026, yang diperjuangkan oleh inovasi di Dell Enterprise Hub, menunjukkan jalan yang jelas ke depan untuk AI perusahaan. Ini adalah masa depan di mana inovasi sumber terbuka bertemu keandalan perusahaan, di mana sistem AI yang kompleks diorkestrasi dengan mudah, dan di mana bisnis dapat memanfaatkan kekuatan penuh kecerdasan buatan untuk mendorong pertumbuhan dan transformasi yang belum pernah terjadi sebelumnya.

Pertanyaan yang Sering Diajukan

What is the significance of 'Harness Engineering' in modern AI?
Harness Engineering refers to the increasingly critical discipline of orchestrating complex AI systems. It moves beyond the focus on single models to integrate numerous models, autonomous agents, diverse data sources, and various memory layers for agents and environments. This holistic approach ensures that enterprise AI solutions are robust, scalable, and capable of addressing real-world business challenges by managing the entire ecosystem rather than isolated components.
Why are open source models increasingly important for enterprise AI strategies?
Open source models are becoming foundational for enterprise AI due to several compelling reasons. They offer unparalleled transparency and trust, allowing enterprises to inspect and audit every aspect for compliance and security. They enable deep customization and specialization by combining foundational capabilities with proprietary data, leading to unique value propositions. Open source models also provide cost efficiency with predictable costs, and they foster rapid innovation velocity, benefiting from a global community of developers and researchers.
How does the Dell Enterprise Hub ensure multi-platform optimization and security for AI deployments?
The Dell Enterprise Hub provides comprehensive support across multiple silicon providers, including NVIDIA H100/H200, AMD MI300X, and Intel Gaudi 3 powered Dell platforms, preventing hardware vendor lock-in. For security, it implements repository scanning for malware, custom Docker image scanning with AWS Inspector, provenance verification through signed containers and SHA384 checksums, and robust access governance using standardized Hugging Face tokens to manage permissions.
What role does the Dell AI SDK play in accelerating enterprise AI deployment?
The 'dell-ai' Python SDK and CLI dramatically simplifies AI deployment from a process that could take days or weeks to mere minutes. It automates complex tasks such as matching models to Dell hardware, generating optimal deployment configurations, handling GPU memory allocation, and applying platform-specific optimizations. This 'platform intelligence' allows DevOps engineers, data scientists, enterprise architects, and security teams to focus on AI innovation rather than infrastructure complexities.
Can you describe some of the key open source models featured on the Dell Enterprise Hub?
The Dell Enterprise Hub highlights several cutting-edge open source models. These include NVIDIA Nemotron 3 Super (120B-A12B) for highly efficient, multilingual conversational AI, leveraging MoE and NVFP4 optimization. The Qwen3.5 family offers scalable intelligence, from the multimodal Qwen3.5-397B-A17B with native image and text understanding, to the efficient Qwen3.5-9B suitable for edge deployments. Additionally, Qwen3-Coder-Next provides a code-first, 79B parameter solution for advanced programming tasks with IP protection benefits.
How does the Dell Enterprise Hub facilitate the transition from individual models to integrated AI systems?
The Dell Enterprise Hub serves as a comprehensive platform designed for orchestrating complex AI systems. It supports multi-model, multi-platform deployments, integrates robust security and lifecycle management, and features an application ecosystem. This ecosystem includes tools like OpenWebUI for chat interfaces and AnythingLLM for multi-model agentic systems, alongside custom applications, enabling enterprises to build sophisticated, integrated AI solutions rather than relying on disparate, single-purpose models.
What is the 'decoupled architecture' and why is it important for AI lifecycle management?
Dell Enterprise Hub's decoupled architecture separates container versions from model weights. This is crucial for AI lifecycle management because it allows enterprises to pin exact container tags in production while testing newer versions in staging, facilitating seamless updates. It also provides flexibility to pull model weights at runtime or pre-download for air-gapped environments, ensuring greater control, maintainability, and agility in managing AI inference engines and model versions independently.
How does the Dell AI SDK simplify deployment for different team roles?
The Dell AI SDK brings significant simplification across various team roles. For DevOps engineers, it eliminates the need to pore over extensive deployment guides by automatically optimizing configurations for specific Dell hardware. Data scientists can deploy models without needing to become infrastructure experts, allowing them to focus on AI development. Enterprise architects benefit from standardized, version-controlled, and auditable deployment snippets. For security teams, every deployment leverages pre-scanned containers with verified checksums and signed images, enhancing compliance and trust.

Tetap Update

Dapatkan berita AI terbaru di inbox Anda.

Bagikan