欢迎光临厦门雄霸电子商务有限公司!
工业设备服务专注工业设备11年
全国咨询热线:18030183032

A100 超微NV服务器 英伟达 NVIDIA

时间:2023-08-16 09:31:23 作者:小编 点击:

NVIDIA DGX A100 配备 8 个 NVIDIA A100 Tensor Core GPU, 可出色完成加速任务,并针对 NVIDIA CUDA-X™ 软件和整套 端到端 NVIDIA 数据中心解决方案进行全面优化。NVIDIA A100 GPU 引入 Tensor Float 32 (TF32)精度,即 TensorFlow 和 PyTorch AI 框架的默认精度格式。TF32 的工作原理与 FP32 类似,但相较于上一代产品,TF32 可提供高达 20 倍的 AI 每秒 浮点运算(FLOPS) 性能。而最重要的是,实现此类加速无需 改动任何代码。 A100 80GB GPU 的 GPU 显存带宽比 A100 40GB GPU 增加了 30%,以每秒超过 2 万亿字节的速度(2TB/s)达到全球领先 水平。

此外,与上一代 NVIDIA GPU 相比,A100 GPU 具有 超大片内内存,包括 40 MB 的二级缓存,扩大近 7 倍,可更大 限度地提升计算性能。DGX A100 还首次推出第三代 NVIDIA® NVLink®,使 GPU 到 GPU 直接带宽提高一倍,直逼每秒 600 千兆字节(GB/s),几乎比 PCIe 4.0 高 10 倍。此外,新款 NVIDIA NVSwitch™ 的速度是上一代的 2 倍。这种强大的性能 可助力用户更快解决问题,以及应对此前无法解决的难题。 安全性更高的企业 AI 系统 NVIDIA DGX A100 采用多层级架构保护所有主要的软硬件组件, 确保 AI 企业处于稳定的安全状态。DGX A100 内置安全机制, 覆盖基板管理控制器(BMC)、CPU 载板、GPU 载板和自加密 驱动,可帮助 IT 人员专注于 AI 操作,而不必花时间评估和 应对安全威胁。

 借助 NVIDIA 网络实现数据中心的非凡可扩展性 NVIDIA DGX A100 配备所有 DGX 系统中速度领先的 I/O 架构, 是 NVIDIA DGX SuperPOD™ 等大型 AI 集群的基础构件(后者 为可扩展的 AI 基础设施描绘了企业蓝图)。DGX A100 拥有 8 个用于集群的单端口 NVIDIA ConnectX®-7 InfiniBand 网卡, 以及最高 2 个用于存储和网络连接的双端口 ConnectX-7 VPI (InfiniBand 或以太网)网卡,二者的速度均能达到 200 Gb/s。 将 ConnectX-7 与 NVIDIA Quantum-2 InfiniBand 交换机相连, 即可用更少的交换机和线缆构建 DGX SuperPOD,从而节省 数据中心基础设施的 CAPEX 和 OPEX。借助海量 GPU 加速 计算与精尖网络硬件和软件优化的强强联合,DGX A100 可扩展 至数百乃至数千个节点,从而攻克对话式 AI 和大规模图像分类 等更艰巨的挑战。