NVIDIA

AI物理加速核反应堆设计
了解AI物理和NVIDIA PhysicsNeMo框架如何加速清洁、模块化核反应堆设计。利用GPU加速的数字孪生技术,为更安全、更高效的SMRs和第四代反应堆提供支持,克服传统模拟瓶颈。

NVIDIA NemoClaw:安全、常驻本地AI智能体
了解如何在DGX Spark上使用NVIDIA NemoClaw和OpenClaw构建一个安全、常驻的本地AI智能体。部署具有强大沙盒和本地推理能力的自主助手,以增强数据隐私和控制。

MiniMax M2.7:在 NVIDIA 平台上扩展智能体工作流
MiniMax M2.7 是一款强大的混合专家模型,可在 NVIDIA 平台上扩展用于复杂 AI 的智能体工作流。了解其优化、部署和微调。

Omniverse 库:将物理 AI 集成到现有应用中
NVIDIA Omniverse 库提供模块化架构,可将物理 AI 功能集成到现有应用中。利用 ovrtx、ovphysx 和 ovstorage 实现高保真模拟、实时物理和统一数据管道,从而赋能数字孪生创建和智能体编排。

机架级AI超级计算机:从硬件到拓扑感知调度
深入了解 NVIDIA Blackwell 超级计算机如何与 Mission Control 结合,实现 AI 工作负载的拓扑感知调度,优化 NVLink 和 IMEX 域的性能。

GTC 2026:戴尔企业中心重新定义企业级开放AI
探索GTC 2026的关键洞察,戴尔企业中心正在彻底改变开源AI的部署方式,为企业创新提供安全、多平台的解决方案。

Gemma 4:NVIDIA 将 AI 从数据中心扩展到边缘设备
探索 Gemma 4,NVIDIA 的多模态和多语言 AI 模型,旨在实现从 Blackwell 数据中心到 Jetson 边缘设备的无缝部署,为安全、低延迟的应用提供支持。

英伟达260亿美元开源AI投资刺激创新
英伟达宣布将在五年内投入260亿美元巨资开发开源AI模型,旨在推动创新并保持市场领先地位。

AI工厂令牌生产:NVIDIA Mission Control 3.0 提升效率
NVIDIA Mission Control 3.0 凭借统一服务、实时AI和智能功率管理,彻底变革AI工厂的令牌生产。探索更高的效率、安全的ado租户和预测性AIOps,以最大限度地提高GPU输出。

零信任AI工厂:利用TEE保护机密AI工作负载
探索如何利用NVIDIA的参考架构构建零信任AI工厂,借助机密容器(Confidential Containers)和TEE实现强大的AI安全和数据保护。

AWS、NVIDIA 深化AI合作,加速AI从试点到生产
AWS 和 NVIDIA 在 GTC 2026 大会上深化战略合作,宣布重大集成,以加速AI从试点到生产,包括扩展的 GPU 部署、新的 EC2 实例以及 Amazon Bedrock 对 Nemotron 模型的支持。

NVIDIA GPU 计算能力:解读 CUDA 的硬件基础
探索 NVIDIA GPU 计算能力,这是定义支持 CUDA 的 GPU 硬件特性的关键指标。了解不同的架构如何影响 AI、深度学习和 HPC 工作负载。

OpenAI 获 1100 亿美元融资,加速全球 AI 规模化发展
OpenAI 宣布获得 SoftBank、NVIDIA 和 Amazon 1100 亿美元的巨额投资,估值飙升至 7300 亿美元,旨在全球范围内为消费者、开发者和企业提供前沿 AI 访问,加速其规模化发展。