Supermicro推出搭载NVIDIA HGX A100 8-GPU的最高密度4U服务器及最新8U SuperBlade®
导言:10月9日,Super Micro Computer, Inc. (纳斯达克代码:SMCI) 宣布推出支持 8 张 NVIDIA®HGX A100™ GPU 且拥有双倍 GPU 功能的全新 4U 服务器。Supermicro 提供业界最多样化的 GPU 系统产品组合,涵盖 1U、2U、4U 和 10U 的 GPU 服务器及 SuperBlade 服务器,并提供各种可自定义组态。
10月9日,Super Micro Computer, Inc. (纳斯达克代码:SMCI) 宣布推出支持 8 张 NVIDIA®HGX A100™ GPU 且拥有双倍 GPU 功能的全新 4U 服务器。Supermicro 提供业界最多样化的 GPU 系统产品组合,涵盖 1U、2U、4U 和 10U 的 GPU 服务器及 SuperBlade 服务器,并提供各种可自定义组态。
Supermicro 在推出最新的 NVIDIA HGX A100™ 8-GPU 服务器后,目前可供应业界类型最广、规格最多样的 GPU 系统选择,能为边缘到云端等应用提供优异效能。整个产品组合包括 1U、2U、4U 和 10U 机架式 GPU 系统;Ultra、BigTwin™ 和嵌入式解决方案,并可选择搭载 AMD EPYC™ 和支持 Intel®Deep Learning Boost 技术的 Intel ®Xeon 处理器。
Supermicro 首席执行官兼总裁 Charles Liang 表示:“Supermicro 推出采用 NVIDIA HGX™ A100 8-GPU 主板(原代号为 Delta )的全新 4U 系统,与目前的系统相比,新系统可提供 6 倍 AI 训练效能和 7 倍推论工作负载容量。此外,最新发布的 NVIDIA HGX™ A100 4-GPU 主板(原代号为 Redstone)拥有广泛的市场接受度,让我们对未来全球客户的回响有着高度期待。这些最新的 Supermicro 系统可针对加速工作负载来大幅提升整体效能,以满足瞬息万变的市场需求。同时,新系统可应用在包括高性能计算 (HPC)、数据分析、深度学习训练和推论等领域。”
最新高密度的 2U 和 4U 服务器采用 Supermicro 的进阶散热设计(包括客制化散热片和选购的水冷系统),并搭载 NVIDIA HGX A100 4-GPU 8-GPU 主板,另外还推出支持 8 张 NVIDIA A100 PCI-E GPU 的全新 4U 服务器(即日起供货)。Supermicro 的进阶 I/O 模块(AIOM)规格具有高灵活性,可进一步提升网络通讯功能。AIOM 可搭配高速、低延迟的最新 PCI-E 4.0 存储与网络装置使用,支持 NVIDIA GPUDirect®RDMA 和 GPUDirect Storage,并可通过 NVIDIA Mellanox®InfiniBand 的 NVME over Fabrics(NVMe-oF)将连续数据流馈入可扩展的多重 GPU 系统,而不会出现瓶颈。此外,Supermicro 的钛金级电源供应器能提升系统的省电效率,能源效率为业界最高的 96%,不仅省下更多电费,还能为 GPU 提供备援支持。
NVIDIA 产品管理与营销部资深总监 Paresh Kharya 表示:“Supermicro 搭载 NVIDIA A100 的系统可快速扩充至数千张 GPU,或可使用最新的多实例 GPU 技术,将每张 A100 GPU 分割成 7 张独立的 GPU 实例,以执行不同的工作。支持 TensorFloat 32 的 NVIDIA A100 Tensor Core GPU 可提供比前一代高 20 倍的运算容量,无需变更任何程序代码。”
Supermicro 搭载HGX A100 4-GPU 的进阶2U 设计
此 2U 系统搭载 NVIDIA HGX A100 4-GPU 主板,并采用 Supermicro 的进阶散热片设计,在满载下仍可维持最佳的系统温度,且外型规格精简轻巧。系统可通过 NVIDIA NVLink®执行高 GPU 点对点通讯,可安装最高 8TB 的 DDR4 3200Mhz 系统内存,具备 5 个支持 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽,还有 4 个支持 GPUDirect Storage 功能的可热插入 NVMe。
搭载HGX A100 8-GPU 的高密度、多功能4U 设计
最新 4U GPU 系统搭载 NVIDIA HGX A100 8-GPU 主板,具备最多 6 个 NVMe U.2 和 2 个 NVMe M.2、10 个 PCI-E 4.0 x16 插槽,并采用 Supermicro 独家的 AIOM,能通过 GPUDirect RDMA、GPUDirect Storage 及 InfiniBand 上的 NVMe-oF 等最新技术堆栈,支持系统之间的高效 8-GPU 通讯与数据流。系统使用 NVIDIA NVLink 和 NVSwitch 技术,适合用于大规模的深度学习训练、研究或国家实验室专用的神经网络模型应用、超级运算丛集和高效能计算云端服务。
搭载20 张A100 PCI-E GPU 的超高密度、节能8U SuperBlade
这款业界最高密度的 GPU 刀锋服务器装载在 Supermicro 的 8U SuperBlade 机壳内,可支持最多 20 个节点和 40 张 GPU,每节点两张单宽 GPU,或每节点一张 NVIDIA Tensor Core A100 PCI-E GPU。在 8U 尺寸内装入 20 张 NVIDIA A100 GPU,进一步提升计算效能密度,且尺寸更小巧,能为客户降低总体拥有成本(TCO)。为支持 GPU 优化的配置并维持高需求 AI 应用程序所需的顶尖效能和传输量,SuperBlade 提供 100% 不阻塞的 HDR 200Gb/s InfiniBand 网络基础架构,可加速深度学习并支持实时分析和决策。SuperBlade 同时具备高密度、可靠度和可升级性,为企业应用程序提供 AI 服务的完美建构基础。
业界最多样化的GPU 加速系统产品组合
Supermicro 持续支持各种规格的 NVIDIA 高阶 GPU,专为客户的独特使用案例场景和需求进行优化。1U GPU 系统可通过 NVLink 容纳最多 4 张 NVIDIA GPU,已通过包括 NEBS 第 3 级认证、5G/边缘就绪的 SYS-1029GQ 等认证。Supermicro 的 SYS-2029GP-TR 等 2U GPU 系统支持最多 6 张 NVIDIA V100 GPU,可在同一系统内容纳双 PCI-E 控制源(Dual PCI-E Root Complex)功能。最后,如 SYS-9029GP-TNVRT 等 10U GPU 服务器支持最多 16 张 V100 SXM3 GPU,并可搭载内建 AI 加速能力的双 Intel Xeon 可扩充处理器。
弹性的解决方案系列采用 NVIDIA GPU 和 NVIDIA NGC™ 生态系统提供的 GPU 软件,能为各种工作提供适合的建构基础,满足不同产业组织的需求,适用于开发模型的 AI 推论、高效能计算到高阶训练等应用。
免责声明:
※ 以上所展示的信息来自媒体转载或由企业自行提供,其原创性以及文中陈述文字和内容未经本网站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如果以上内容侵犯您的版权或者非授权发布和其它问题需要同本网联系的,请在30日内进行。
※ 有关作品版权事宜请联系中国企业新闻网:020-34333079 邮箱:cenn_gd@126.com 我们将在24小时内审核并处理。
标签 :
相关网文