规格
GPU 8 个 NVIDIA H100 Tensor Core GPU
网络管理 RJ45 接口 10Gb/s 板载网卡
50Gb/s 的以太网可选网卡
RJ45 接口主机基板管理控制器
(BMC)
2 个 NVIDIA BlueField-3 DPU BMC
(均为 RJ45 接口)
存储 操作系统 :2 块 1.9TB NVMe M.2
硬盘
内部存储 :8 块 3.84TB NVMe U.2
硬盘
系统软件 DGX H100 系统预安装 DGX 操作系统,
该操作系统基于 Ubuntu Linux,包含
DGX 软件堆栈(所有必要软件包和驱
动均针对 DGX 优化)。
客户可以选择单独安装 Ubuntu Linux
或 Red Hat Enterprise Linux 以及必
要的 DGX 软件堆栈。
运行温度范围 5 至 30°C
AI 已走出实验室,从科学转化为商业成果。从大企业到小公司的各种组织 每天都在使用 AI 推动创新和优化业务。作为全球首款专用 AI 基础架构的 第四代产品,DGX H100 旨在成为企业 AI 卓越中心的核心。DGX H100 是 经过全面优化的硬件和软件平台,包括对新系列 NVIDIA AI 软件解决方案 的全面支持、丰富的第三方支持生态系统,以及 NVIDIA 专业服务提供的 专家建议。DGX H100 具有经验证的可靠性,DGX 系统已经被全球各行各业 数以千计的客户所采用。 突破大规模 AI 发展的障碍 作为全球首款搭载 NVIDIA H100 Tensor Core GPU 的系统,NVIDIA DGX H100 可带来突破性的 AI 规模和性能。它搭载 NVIDIA ConnectX®-7 智能 网卡和 NVIDIA BlueField®-3 数据处理器(DPU),为 NVIDIA DGX SuperPOD 带来 6 倍性能提升,2 倍更快的网络,和高速可扩展性。新一代 架构可用于自然语言处理和深度学习推荐模型等复杂的大型 AI 任务。 规格 GPU 8 个 NVIDIA H100 Tensor Core GPU GPU 显存 共 640GB 性能 32 petaFLOPS FP8 NVIDIA® NVSwitch™ 4x 系统功耗 最高 10.2kW CPU 双路 x86 系统内存 2TB 网络 4 个 OSFP 端口,提供 8 个单端口 NVIDIA ConnectX-7 网卡 400Gb/s 的 InfiniBand/ 以太网 2 个双端口 NVIDIA BlueField-3 DPU VPI 1 个 400Gb/s 的 InfiniBand/ 以太网网卡 1 个 200Gb/s 的 InfiniBand/ 以太网网卡 网络管理 RJ45 接口 10Gb/s 板载网卡 50Gb/s 的以太网可选网卡 RJ45 接口主机基板管理控制器 (BMC) 2 个 NVIDIA BlueField-3 DPU BMC (均为 RJ45 接口) 存储 操作系统 :2 块 1.9TB NVMe M.2 硬盘 内部存储 :8 块 3.84TB NVMe U.2 硬盘 系统软件 DGX H100 系统预安装 DGX 操作系统, 该操作系统基于 Ubuntu Linux,包含 DGX 软件堆栈(所有必要软件包和驱 动均针对 DGX 优化)。 客户可以选择单独安装 Ubuntu Linux 或 Red Hat Enterprise Linux 以及必 要的 DGX 软件堆栈。 运行温度范围 5 至 30°C NVIDIA DGX H100 | 数据表 订购信息 NVIDIA DGX H100 将于 2022 年底推出。如需了解详细信息,请联系您的 NVIDIA 销售代表。 为您打造一流的基础设施 面向企业的 AI 不仅可提供非凡的性能和功能,还能巧妙地融入企业组织的 IT 范围和实践。DGX H100 可本地部署直接管理,或在 NVIDIA DGX-Ready 数据 中心进行托管,亦可在 NVIDIA DGX Foundry 租用,并通过 NVIDIA 认证托管 服务提供商进行访问。通过 DGX-Ready 生命周期管理计划,企业组织可以 获得可预测的财务模型,以保持其 AI 基础设施部署处于领先地位。这使得 DGX H100 与传统 IT 基础架构一样易于使用和获取,且不会给忙碌的 IT 人员 带来额外负担,有助于企业组织立即将 AI 用于其业务,而无需犹豫等待。




