第一生活网

NVIDIA 推出 Hopper GH100 驱动的 DGX H100

项树仪
导读 在 GTC 2022 上,NVIDIA宣布了一系列由其全新Hopper GH100 GPU 提供支持的产品,例如 DGX H100、DGX SuperPod 和多个 H100 PCI

在 GTC 2022 上,NVIDIA宣布了一系列由其全新Hopper GH100 GPU 提供支持的产品,例如 DGX H100、DGX SuperPod 和多个 H100 PCIe 加速器。

NVIDIA 推出 Hopper GH100 GPU 系列:配备 DGX H100、DGX SuperPod H100 和 H100 PCIe 加速器

NVIDIA DGX H100 及其 POD 和 EOS 等各种迭代产品针对 AI 市场,为各地的公司办公室、研究机构、实验室或家庭办公室加速机器学习和数据科学性能。

NVIDIA 推出适用于台式机和笔记本电脑的新型工作站 GPU,RTX A5500 A RTX 3080 Ti In Diguise

借助 Hopper GPU,NVIDIA 正在发布其最新的 DGX H100 系统。该系统在 SXM 配置中总共配备了 8 个 H100 加速器,并提供高达 640 GB 的 HBM3 内存和高达 32 PFLOPs 的峰值计算性能。相比之下,现有的 DGX A100 系统配备 8 个 A100 GPU 和 640 GB HBM2e 内存,最多只能产生 5 PFLOPs 的 AI 和 10 PFLOPs 的 INT8 计算能力。

NVIDIA 还宣布了两个由其 DGX H100 系统提供支持的超级计算平台,即 DGX POD H100 和 EOS。DGX POD 提供 1 Exaflop 的 AI 性能、20 TB 的 HBM3 内存、192 TFLOP 的 SHARP 网络内计算和 70 TB/s 的双向带宽。DGX POD NVLINK 交换机功能支持 20.5 TB 的总 HBM3 内存和 786 TB/s 的总系统内存带宽。

EOS 凭借其 18 个 DGX H100 PODS 将事情提升到一个新的水平,具有 18 个 EFLOP FP8、9 个 FP16 EFLOP、275 个 FP64 PFLOP、3.7 个 PFLOP 的网络内计算和 230 TB/s 的带宽。人工智能系统采用新的 Quantum-2 Infiniband 开关设计,该开关具有 570 亿个晶体管和超过 A100 系统的 32 倍人工智能加速器。