- Supermicro 采用由全新 NVIDIA Blackwell 架构解决方案组成的新一代系统和机架架构以扩大人工智能优化产品组合
适用于大规模 CSP 和 NSP 的强大节能解决方案将结合全方位下一代 NVIDIA GPU 和 CPU,以及 NVIDIA Quantum X800 平台和 NVIDIA AI Enterprise 5.0
加利福尼亚州圣何塞2024年3月21日 /美通社/ -- 在 2024 年 NVIDIA GPU 大会上,人工智能、云、存储和 5G/边缘的整体 IT 解决方案提供商 Supermicro, Inc.(纳斯达克股票代码:SMCI)宣布推出新的大规模生成式人工智能系统,该系统采用 NVIDIA 的下一代数据中心产品,包括最新的 NVIDIA GB200 Grace™ Blackwell Superchip、NVIDIA B200 Tensor Core 和 B100 Tensor Core GPU。Supermicro 正在优化其目前的 NVIDIA HGX™ H100/H200 8-GPU 系统,以便支持 NVIDIA HGX™ B100 8-GPU 和 B200,从而缩短交付时间。此外,Supermicro 还将通过 NVIDIA GB200(包括具有 72 个NVIDIA Blackwell GPU 的完整机架级解决方案的 NVIDIA GB200 NVL72)新产品,进一步加强其庞大的 NVIDIA MGX™ 系统产品系列。Supermicro 还在其产品阵容中增加了新系统,包括 4U NVIDIA HGX B200 8-GPU 液冷系统。
Supermicro 总裁兼首席执行官梁见后表示:"我们专注于人工智能的构建块架构和机架级整体 IT,有助于我们设计下一代系统,以满足基于 NVIDIA Blackwell 架构 GPU 的更高要求,例如采用 NVIDIA HGX B200 8-GPU 的新 4U 液冷系统以及 NVIDIA GB200 NVL72 的完全集成直达芯片液冷机架。这些新产品的开发乃基于 Supermicro 和 NVIDIA 久经考验的 HGX 和 MGX 系统架构,并针对 NVIDIA Blackwell GPU 的新功能进行了优化。Supermicro 拥有将 1kW GPU 整合到各种风冷和液冷系统中的专业知识,以及每月 5,000 个机架的机架规模生产能力,我们预计将率先部署采用 NVIDIA Blackwell GPU 的全机架集群,并在市场上推出。"
Supermicro 直达芯片的液体冷却技术将允许增加最新 GPU 的散热设计功率 (TDP),并充分发挥 NVIDIA Blackwell GPU 的潜力。Supermicro 搭载 NVIDIA Blackwell 的 HGX 和 MGX 系统是未来人工智能基础设施的构建块,将为数万亿参数的人工智能训练和实时人工智能推理带来突破性的性能。
一系列经过 GPU 优化的 Supermicro 系统将为 NVIDIA Blackwell B200 和 B100 Tensor Core GPU 做好准备,并针对最新的 NVIDIA AI Enterprise 软件进行验证,该软件增加了对 NVIDIA NIM 推理微服务的支持。Supermicro 系统包括:
- NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统
- 5U/4U PCIe GPU 系统,多达 10 个 GPU
- SuperBlade® 配备多达 20 个用于 8U 扩展柜的 B100 GPU,多达 10 个用于6U 扩展柜的B100 GPU
- 2U Hyper 配备多达 3 个 B100 GPU
- Supermicro 2U x86 MGX 系统配备多达 4 个 B100 GPU
在训练大规模基础人工智能模型方面,Supermicro 准备率先发布首次问世的 NVIDIA HGX B200 8-GPU 和 HGX B100 8-GPU 系统。这些系统采用 8 个 NVIDIA Blackwell GPU,通过第五代 NVIDIA® NVLink® 实现 1.8TB/s 的高速互连,性能是上一代的两倍,总高带宽内存为 1.5TB,与一代 NVIDIA Hopper 架构相比,GPT-Moe-1.8T 型号等 LLM 的训练结果将快 3 倍。这些系统具有先进的网络功能,可扩展到集群,支持 NVIDIA Quantum-2 InfiniBand 和 NVIDIA Spectrum-X 以太网选项,GPU 与 NIC 的比例为 1:1。
NVIDIA GPU 产品管理副总裁 Kaustubh Sanghani 表示:"Supermicro 将继续向市场推出种类繁多的加速计算平台服务器,这些服务器专为人工智能训练和推理而调整,可以满足当今市场的任何需求。我们将与 Supermicro 密切合作,为客户提供最优化的解决方案。"
对于要求最苛刻的 LLM 推理工作负载,Supermicro 发布了几款采用 NVIDIA GB200 Grace Blackwell Superchip 构建的新型 MGX 系统,该系统将 NVIDIA Grace CPU 和两个 NVIDIA Blackwell GPU 相结合。与 NVIDIA HGX H100 相比,Supermicro 配备了 GB200 系统的NVIDIA MGX 将为人工智能推理性能带来巨大飞跃,速度高达 30 倍。Supermicro 和 NVIDIA 开发了采用 NVIDIA GB200 NVL72 的机架级解决方案,将 36 个 Grace CPU 和 72 个 Blackwell GPU 连接在一个机架中。所有 72 个 GPU 都与第五代 NVIDIA NVLink 互连,以实现 1.8TB/s 的 GPU 与 GPU 的通信。此外,对于推理工作负载,Supermicro 宣布推出 ARS-221GL-NHIR,这是一款基于 GH200 系列产品的 2U 服务器,它将通过 900Gb/s 的高速互连连接两台 GH200 服务器。欢迎前往 GPU 大会的Supermicro 展位了解更多信息。
Supermicro 系统还将支持即将推出的 NVIDIA Quantum-X800 InfiniBand 平台,包括 NVIDIA Quantum-X800 QM3400 交换机和 SuperNIC800,以及由 NVIDIA Spectrum-X800 SN5600 交换机和 SuperNIC800 组成的 NVIDIA Spectrum-X800 以太网平台。NVIDIA Quantum-X800 和 Spectrum-X800 针对 NVIDIA Blackwell 架构进行了优化,将为人工智能基础设施提供最高水平的网络性能。
有关 Supermicro NVIDIA 解决方案的更多信息,请访问 https://www.supermicro.com/en/accelerators/nvidia
Supermicro 即将推出的采用 NVIDIA B200 和 GB200 的系统阵容包括:
- Supermicro 的 NVIDIA HGX B200 8 GPU 风冷和液冷系统,可实现最高的生成式人工智能训练性能。该系统采用 8 个 NVIDIA Blackwell GPU,通过第五代 NVLink 连接,具有 1.5TB 高带宽内存(高达 60TB/s),可加快人工智能训练工作负载。
- Supermicro 最畅销的人工智能训练系统,配备 NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持 NVIDIA 即将推出的HGX B100 8-GPU。
- Supermicro 机架级解决方案,以 GB200 Superchip 系统作为服务器节点,每个节点 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。Supermicro 直达芯片的液体冷却可最大限度地增加密度,72 个 GB200 192GB GPU(每个 GPU 1200W TDP)全部装在单个 44U ORV3 机架中。
Supermicro 将参与 2024 年 GPU 大会
Supermicro 将于 3 月 18 日至 21 日在圣何塞会议中心举行的 2024年 NVIDIA GPU 大会活动上展示用于人工智能的完整 GPU 系统产品组合。参观 Supermicro 的 #1016 号展位,了解为各种人工智能应用打造的解决方案,包括训练生成式人工智能模型、人工智能推理和边缘人工智能。Supermicro 还将展示两种机架级解决方案,包括一个概念机架,其系统采用即将推出的 NVIDIA GB200,该机架具有 72 个与第五代 NVLink 互连的液冷 GPU。
将在 2024 年 GPU 大会上展出的 Supermicro 解决方案包括:
- Supermicro 液冷人工智能训练机架,采用 8 个 4U 8-GPU 系统,配备 NVIDIA HGX H200 8-GPU
- 带有液冷式 MGX 系统节点的 Supermicro 概念 ORV3 机架,共涵盖通过第五代 NVLink 连接的 72 个 NVIDIA GB200 超级芯片
- Supermicro MGX 系统,包括 1U 液冷的 NVIDIA GH200 Grace Hopper 超级芯片系统
- 用于在边缘提供 GPU 计算的 Supermicro 短深度 Hyper-E 系统
- 用于高性能人工智能数据管道的 Supermicro Petascale 全闪存存储系统