NVIDIA英伟达H800人工智能服务器GPU算力租赁

发布时间:2023-11-20

NVIDIA英伟达H800人工智能服务器为各类数据中心提供*的性能、可扩展性和安全性。

加速计算的数量级飞跃

通过 NVIDIA英伟达H800人工智能服务器 GPU,在每个工作负载中实现*性能、可扩展性和安全性。使用 NVIDIA® NVLink® Switch 系统,可连接多达 256 个 H800 来加速百亿亿级 (Exascale) 工作负载,另外可通过的 Transformer 引擎来处理万亿参数语言模型。与上一代产品相比,H800 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界*的对话式 AI。

准备好迎接企业 AI 了吗?

企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。

适用于主流服务器的 H800 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H800 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、引擎和视觉 AI 等。

 

NVIDIA英伟达H800人工智能服务器GPU算力租赁配置:

项目

标准配置

框架

8U 机架式服务器

处理器

2颗第4代/第5代至强系列* 64 核/3.9GHz/320MB缓存

内存

*容量   4TB

GPU

 NVIDIA HGX H800 GPU模组

系统硬盘

M.2   NVMe PCIe接口  2TB   SSD

数据硬盘

2*10TB   企业级 SATA 硬盘

RAID   10 阵列配置

InfiniBand   网络

ConnectX-7   400Gb/s

Ethernet   网卡

OCP 网卡/双电口/10G

PICE   插槽

9 个   PCIe 5.0 扩展插槽

电源

6*3000W,2*2700W,AC220   输入

风扇

10 个   54V 风扇模组

操作系统

Windows   Server/RedHat Enterprise Linux/SUSE Linux Enterprise

Server/CentOS/Ubuntu/Vmware   EXSi

工作温度

+5°~+35°

其他接口

机箱后部:1   个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA

机箱前部:2   个 USB 3.0,1 个 VGA

整机净重

120KG(以实际配置为准)

 

NVIDIA H800 TENSOR CORE GPU 规格 (SXM4 和 PCIE 外形规格)

外形规格

H800 SXM4

H800 PCIE

FP64

1 teraFLOPS

0.8 teraFLOPS

FP64 Tensor Core

1 teraFLOPS

0.8 teraFLOPS

FP32

67 teraFLOPS

51 teraFLOPS

TF32 Tensor Core

989 teraFLOPS*

756teraFLOPS*

BFLOAT16 Tensor Core

1979 teraFLOPS*

1,513 teraFLOPS*

FP16 Tensor Core

1979 teraFLOPS*

1,513 teraFLOPS*

FP8 Tensor Core

3958 teraFLOPS*

3026 teraFLOPS*

INT8 Tensor Core

3958 TOPS*

3026 TOPS*

GPU 显存

80GB

80GB

GPU 显存带宽

3.35TB/s

2TB/s

解码器

7 NVDEC/7 JPEG

7 NVDEC/7 JPEG

*热设计功率 (TDP)

高达 700 瓦(可配置)

350 瓦(可配置)

多实例 GPU

*多 7 个 MIG @每个 10GB

外形规格

SXM

PCIe双插槽风冷式

互联技术

NVLink:600GB/s

PCIe:128GB/s

NVLink:600GB/s

PCIe:128GB/s

 

安全地加速从企业级到百亿亿次级规模的工作负载

实时深度学推理

大模型的 AI 推理性能提升高达 30 倍

HPC 应用的性能提升高达 7 倍

百亿亿次级高性能计算

加速数据分析

为企业提高资源利用

内置机密计算

为大规模 AI 和高性能计算提供*的性能

NVIDIA英伟达H800人工智能服务器

 

上一篇:跃洋机床TH6350导轨防护罩供...
下一篇:攀枝花三维植被网生产厂家实业公司...