Code Velocity
Verslo AI

GTC 2026: Dell Enterprise Hub iš naujo apibrėžia atvirąjį AI verslui

Dalintis
Dell Enterprise Hub GTC 2026 parodoje, demonstruojantis verslo AI infrastruktūrą

Ši paprasta komanda atitraukia nuo milžiniško sudėtingumo. SDK automatiškai suderina modelius su jūsų konkrečia Dell aparatine įranga, generuoja optimalias diegimo konfigūracijas, tvarko sudėtingą GPU atminties paskirstymą ir taiko platformai būdingus optimizavimus, visa tai nereikalaujant gilių Docker žinių ar rankinio konfigūravimo.

Faktiškai veikianti Python integracija išplečia šį paprastumą į programinį diegimą:

from dell_ai.client import DellAIClient

client = DellAIClient()

# Gaukite diegimo fragmentą bet kuriam modeliui
snippet = client.get_deployment_snippet(
    model_id="nvidia/Nemotron-3-Super-120B-A12B",
    platform_id="xe9680-nvidia-h200",
    engine="docker",
    num_gpus=8
)

# Diekite programiškai
client.deploy_model(snippet)

Šis SDK tvarko sudėtingas daugiaplatformio optimizavimo detales, konteinerių versijavimą su automatiniais atnaujinimais, saugumo nuskaitymą dėl atitikties ir išmanųjį išteklių paskirstymą, pagrįstą modelio reikalavimais.

Kodėl tai svarbu verslo komandoms:

  • DevOps inžinieriams: Tai pašalina poreikį išsamiai nagrinėti modeliams skirtus diegimo vadovus. SDK platformos intelektas optimizuoja jūsų aparatinei įrangai.
  • Duomenų mokslininkams: Tai leidžia jiems efektyviai diegti modelius netampant infrastruktūros ekspertais, atlaisvinant juos sutelkti dėmesį į AI kūrimą.
  • Įmonių architektams: Tai leidžia standartizuoti AI diegimus visose komandose, užtikrinant versijomis valdomus, audituojamus diegimo fragmentus.
  • Saugumo komandoms: Kiekvienas diegimas naudoja iš anksto nuskaitytus konteinerius su patvirtintomis kontrolinėmis sumomis ir pasirašytais atvaizdais, žymiai sustiprinant saugumo padėtį.

Tikrasis pokytis yra Platformos intelektas, įterptas į Dell AI SDK. Jis supranta, kurie modeliai geriausiai veikia konkrečiose Dell platformose, optimalias GPU konfigūracijas, atminties reikalavimus, mastelio keitimo koeficientus ir našumo charakteristikas visose aparatinės įrangos kartose. Tai paverčia "modelio diegimą" iš tyrimo projekto į vieną, užtikrintą komandą.

Naujos kartos atviri modeliai Dell Enterprise Hub platformoje

Dell Enterprise Hub yra ne tik infrastruktūra; tai taip pat suteikia įmonėms galimybę pasiekti pažangiausius atvirojo kodo modelius. GTC 2026 pabrėžė kelis, kiekvienas iš jų suteikiantis unikalių architektūrinių naujovių ir poveikio verslui.

Modelių šeimaPagrindinė inovacija/funkcijaPoveikis verslui
NVIDIA Nemotron 3 SuperMoE, daugiažetoninė prognozė, NVFP4, daugiakalbėDidelio efektyvumo pokalbių AI, paruoštas gamybai, įvairių kalbų palaikymas pasaulinėms operacijoms.
Qwen3.5-397B-A17BTikrai multimodalus, Apache 2.0, pažangi MoESklandus vaizdų/teksto apdorojimas, teisinis aiškumas komerciniam naudojimui, galingas kryžminis modalinis argumentavimas.
Qwen3.5-27BOptimalus dydis, dėmesys argumentavimuiSubalansuotos galimybės/kaina, specializuotas sudėtingoms analitinėms užduotims aplinkose su ribotais ištekliais.
Qwen3.5-9BParuoštas kraštutiniams įrenginiams, ekonomiškas, universalusEfektyvus vietinis diegimas kraštiniuose įrenginiuose, nebrangus, pritaikomas įvairioms užduotims.
Qwen3-Coder-NextPirmiausia kodui, 79B parametrai, pažangus argumentavimas, IP apsaugaSaugus, didelio tikslumo kodo generavimas, pritaikomas nuosavoms kodų bazėms, IP apsauga.

NVIDIA Nemotron 3 Super 120B-A12B yra galingas įrankis verslo pokalbių AI. Jo latentinių ekspertų mišinio (MoE) architektūra (iš viso 120B, 12B aktyvių parametrų) užtikrina nepaprastą efektyvumą. Tokios funkcijos kaip daugiatikslė prognozė (MTP), užtikrinanti greitesnį išvedimą, ir NVFP4 optimizavimas, sumažinantis atminties naudojimą, kartu su gimtosios kalbos palaikymu (anglų, prancūzų, ispanų, italų, vokiečių, japonų, kinų), daro jį idealiu pasauliniam klientų aptarnavimui ir vidiniams komunikacijos įrankiams.

Qwen3.5 modelių šeima demonstruoja atvirojo kodo mastelį ir universalumą. Qwen3.5-397B-A17B yra multimodalinis gigantas, unikaliai apdorojantis tiek vaizdus, tiek tekstą su tikra multimodaline architektūra ir verslui draugiška Apache 2.0 licencija. Tai leidžia giliai suprasti realaus pasaulio dokumentus ir vizualinius duomenis. Jo mažesni broliai, Qwen3.5-27B ir Qwen3.5-9B, pasiekia optimalius galimybių ir kaštų santykius, o 9B modelis ypač tinka kraštiniams įrenginiams, išlaikant stiprias galimybes.

Galiausiai, Qwen3-Coder-Next pasirodo kaip programavimo revoliucija. Turėdamas 79B parametrų ir pirmiausia kodui skirtą dizainą, jis yra sukurtas nuo pagrindų sudėtingam kodo generavimui, siūlantis pažangų argumentavimą daugiažingsniam problemų sprendimui. Labai svarbu verslui, kad jo diegimo vietoje galimybės užtikrina IP apsaugą ir leidžia pritaikyti mokymąsi nuosavoms kodų bazėms, paspartinant saugią programinės įrangos kūrimą.

Šie modeliai, integruoti į Dell Enterprise Hub, peržengia teorines galimybes, siūlydami apčiuopiamus, gamybai paruoštus sprendimus įvairiems verslo AI poreikiams.

Verslo AI renesansas: atvirasis kodas kaip infrastruktūra

GTC 2026 įžvalgos, ypač per Dell Enterprise Hub prizmę, signalizuoja lemiamą momentą verslo AI evoliucijoje. Tai renesansas, kurį lemia pripažinimas, kad atvirojo kodo modeliai, tinkamai integruoti ir apsaugoti verslo lygio infrastruktūroje, atveria precedento neturintį potencialą.

Pasakojimas keičiasi nuo modelių prie sistemų. Kaip tiksliai pasakė Perplexity atstovas Aravind Srinivas, įmonėms dabar reikia "multimodalinio, daugiamodelio ir daugialypio debesies orkestro". Ateitis nėra įsipareigoti vienam AI modeliui, o orkestruoti daugybę specializuotų modelių į nuoseklią, išmanią sistemą. Dell Enterprise Hub gebėjimas sklandžiai diegti ir valdyti šiuos įvairius modelius optimizuotoje aparatinėje įrangoje yra šios vizijos patvirtinimas.

Tai taip pat žymi transformaciją nuo išlaidų centrų prie vertės centrų. Vykdant atvirojo kodo modelius dedikuotoje Dell infrastruktūroje, AI pereina nuo pasikartojančių API išlaidų prie strateginio turto. Pritaikymas, nuosavų duomenų integravimas ir kontrolė vietoje reiškia, kad AI turtas didina vertę, tapdamas pagrindiniu verslo konkurencinio pranašumo komponentu.

Galų gale, siekiama pereiti nuo juodųjų dėžių prie skaidriųjų dėžių. Verslo AI turi būti paaiškinamas, audituojamas ir patikimas. Šias savybes iš prigimties teikia atvirojo kodo sprendimai, kur skaidrumas leidžia atlikti išsamų patikrinimą ir patvirtinimą. Dell Enterprise Hub saugumo funkcijos ir patikimi valdymo modeliai dar labiau sustiprina tai, užtikrindami, kad įmonės galėtų diegti AI su pasitikėjimu ir vientisumu.

Apibendrinant, GTC 2026, kurį pabrėžė Dell Enterprise Hub inovacijos, parodė aiškų kelią verslo AI ateičiai. Tai ateitis, kur atvirojo kodo inovacijos susitinka su verslo patikimumu, kur sudėtingos AI sistemos orkestruojamos lengvai, ir kur įmonės gali pasinaudoti visa dirbtinio intelekto galia, kad paskatintų precedento neturintį augimą ir transformaciją.

Dažniausiai užduodami klausimai

What is the significance of 'Harness Engineering' in modern AI?
Harness Engineering refers to the increasingly critical discipline of orchestrating complex AI systems. It moves beyond the focus on single models to integrate numerous models, autonomous agents, diverse data sources, and various memory layers for agents and environments. This holistic approach ensures that enterprise AI solutions are robust, scalable, and capable of addressing real-world business challenges by managing the entire ecosystem rather than isolated components.
Why are open source models increasingly important for enterprise AI strategies?
Open source models are becoming foundational for enterprise AI due to several compelling reasons. They offer unparalleled transparency and trust, allowing enterprises to inspect and audit every aspect for compliance and security. They enable deep customization and specialization by combining foundational capabilities with proprietary data, leading to unique value propositions. Open source models also provide cost efficiency with predictable costs, and they foster rapid innovation velocity, benefiting from a global community of developers and researchers.
How does the Dell Enterprise Hub ensure multi-platform optimization and security for AI deployments?
The Dell Enterprise Hub provides comprehensive support across multiple silicon providers, including NVIDIA H100/H200, AMD MI300X, and Intel Gaudi 3 powered Dell platforms, preventing hardware vendor lock-in. For security, it implements repository scanning for malware, custom Docker image scanning with AWS Inspector, provenance verification through signed containers and SHA384 checksums, and robust access governance using standardized Hugging Face tokens to manage permissions.
What role does the Dell AI SDK play in accelerating enterprise AI deployment?
The 'dell-ai' Python SDK and CLI dramatically simplifies AI deployment from a process that could take days or weeks to mere minutes. It automates complex tasks such as matching models to Dell hardware, generating optimal deployment configurations, handling GPU memory allocation, and applying platform-specific optimizations. This 'platform intelligence' allows DevOps engineers, data scientists, enterprise architects, and security teams to focus on AI innovation rather than infrastructure complexities.
Can you describe some of the key open source models featured on the Dell Enterprise Hub?
The Dell Enterprise Hub highlights several cutting-edge open source models. These include NVIDIA Nemotron 3 Super (120B-A12B) for highly efficient, multilingual conversational AI, leveraging MoE and NVFP4 optimization. The Qwen3.5 family offers scalable intelligence, from the multimodal Qwen3.5-397B-A17B with native image and text understanding, to the efficient Qwen3.5-9B suitable for edge deployments. Additionally, Qwen3-Coder-Next provides a code-first, 79B parameter solution for advanced programming tasks with IP protection benefits.
How does the Dell Enterprise Hub facilitate the transition from individual models to integrated AI systems?
The Dell Enterprise Hub serves as a comprehensive platform designed for orchestrating complex AI systems. It supports multi-model, multi-platform deployments, integrates robust security and lifecycle management, and features an application ecosystem. This ecosystem includes tools like OpenWebUI for chat interfaces and AnythingLLM for multi-model agentic systems, alongside custom applications, enabling enterprises to build sophisticated, integrated AI solutions rather than relying on disparate, single-purpose models.
What is the 'decoupled architecture' and why is it important for AI lifecycle management?
Dell Enterprise Hub's decoupled architecture separates container versions from model weights. This is crucial for AI lifecycle management because it allows enterprises to pin exact container tags in production while testing newer versions in staging, facilitating seamless updates. It also provides flexibility to pull model weights at runtime or pre-download for air-gapped environments, ensuring greater control, maintainability, and agility in managing AI inference engines and model versions independently.
How does the Dell AI SDK simplify deployment for different team roles?
The Dell AI SDK brings significant simplification across various team roles. For DevOps engineers, it eliminates the need to pore over extensive deployment guides by automatically optimizing configurations for specific Dell hardware. Data scientists can deploy models without needing to become infrastructure experts, allowing them to focus on AI development. Enterprise architects benefit from standardized, version-controlled, and auditable deployment snippets. For security teams, every deployment leverages pre-scanned containers with verified checksums and signed images, enhancing compliance and trust.

Būkite informuoti

Gaukite naujausias AI naujienas el. paštu.

Dalintis