NVIDIA英伟达H20人工智能服务器专为 AI 和 HPC 而打造。
AI、复杂模拟和海量数据集需要多个具有极快互连速度的 GPU 和完全加速的软件堆栈。NVIDIA HGX™ AI 级计算平台整合了 NVIDIA GPU、 NVLink®、NVIDIA 网络以及全面优化的 AI 和高性能计算 (HPC) 软件堆栈的全部功能,可提供*的应用性能并加快获得见解的速度。
NVIDIA英伟达H20人工智能服务器GPU算力租赁配置参数:
框架 | 6U 机架式服务器 |
处理器 | 2 颗至强 Platinum 8480 (可扩展AMD第四代EYPC处理器) |
内存 | DDR5 4800 64G内存*32 |
GPU | NVIDIA HGX H20 GPU 模组 |
系统硬盘 | 960G SATA SSD *2 |
数据硬盘 | 3.84T NVme U.2 SSD*4 9560 8i raid卡*1 |
PICE 插槽 | *支持12个PCIe 5.0插槽; 支持Bluefield-3、CX7以及多种类型智能网卡; |
*的端到端加速计算平台
NVIDIA HGX H20将 NVIDIA Blackwell Tensor Core GPU 与高速互连技术相集成,推动数据中心迈向加速计算和生成式 AI 的新时代。HGX 系统是*的加速纵向扩展平台,专为要求严苛的生成式 AI、数据分析和 HPC 工作负载而设计。
NVIDIA HGX H20 将 H20 Tensor Core GPU 与高速互连技术相结合,为每个数据中心提供*的性能、可扩展性和安全性。它配置了多达 8 个 GPU,为 AI 和 HPC 领域打造出性能强劲的加速垂直扩展式服务器平台。HGX H20提供高级网络选项,凭借 NVIDIA Quantum-2 InfiniBand 和 Spectrum™-X 以太网实现*的 AI 性能
HGX H20还集成了 NVIDIA数据处理器 (DPU),有助于在大规模 AI 云中实现云网络、可组合存储、零信任安全性和 GPU 计算弹性。
深度学推理:性能和多功能性,适用于新一代大型语言模型的实时推理。
深度学训练:性能和可扩展性;
训练性能进一步提升第二代 Transformer 引擎采用 8 位浮点 (FP8) 和新精度,可使 GPT-MoE-1.8T 等大型语言模型的训练速度显著提升 3 倍。这一代 NVLink 可提供GPU 间直接互连、InfiniBand 网络和 NVIDIA Magnum IO™ 软件。这些因素将共同确保企业和广泛的 GPU 计算集群具备高效的可扩展性。
NVIDIA英伟达H20人工智能服务器借助 NVIDIA 网络来加速 HGX;
数据中心是新的计算单元,而网络在大幅提升整个数据中心的应用性能方面发挥着不可或缺的作用。与 NVIDIA Quantum InfiniBand 搭配使用时,HGX 可提供*的性能和效率,确保计算资源得到充分利用。