NVIDIA HGX H200 GPU 租赁
AI 训练与推理旗舰算力
更大显存,更高带宽,更强推理性能
下一代算力
H200 8卡 集群
配备 141GB HBM3e 显存与 4.8TB/秒带宽
增强型 Tensor Core 架构与更快的显存带宽,使大规模 AI 部署如虎添翼
Transformer 模型推理速度提升 2 倍,能效比优化 35%,以DeepSeek满血版为例,单机8卡H200的推理吞吐量预计比16卡H100提升约30%左右。
裸金属或云服务器交付
数据中心:北美、欧洲

为什么选择 H200?
下一代推理性能,为企业级 AI 应用加速
141GB
HBM3e 显存
比 H100 增加 76%
2x
Transformer 推理速度
对比 H100 提升显著
35%
能效比优化
更高性价比
性能优势
- 4.8TB/秒 显存带宽,支持超大上下文窗口
- 单机8卡推理吞吐量超越16卡H100约30%
- 适合 DeepSeek、LLaMA3、Mistral 等主流模型
- Transformer 模型推理速度提升 2 倍
部署灵活性
- 裸金属服务器,零虚拟化损耗
- 云服务器实例,按需弹性扩容
- 北美、欧洲数据中心可选
- 支持长期算力预订
适用场景
- 千亿参数模型推理
- 大上下文 LLM 服务
- 高吞吐 AI API 平台
- 大规模推理优化
技术规格
H200 GPU 服务器技术规格
下一代 HBM3e 显存技术,更大容量,更高带宽
| 规格项 | H200 8卡 裸金属 | H200 8卡 云主机 | H200 单卡 云主机 |
|---|---|---|---|
| GPU | NVIDIA HGX H200 141GB 700W SXM GPUs × 8 fully interconnected with NVIDIA NVLink technology | NVIDIA H200 SXM GPUs × 8 141GB × 8 = 1128GB HBM3e Memory | NVIDIA H200 SXM GPU 141GB HBM3e Memory |
| GPU 显存 | 141GB HBM3e per GPU 1128GB total | 141GB HBM3e per GPU 1128GB total | 141GB HBM3e |
| 显存带宽 | 4.8TB/s per GPU | 4.8TB/s per GPU | 4.8TB/s |
| CPU | 96 cores 192 Threads Intel(R) Xeon(R) Platinum 8468 × 2 4th Gen Intel® Xeon® Scalable Processors | 192 VCPU | 24 VCPU |
| 内存 | 2048GB(64GB × 32)DDR5 | 1920GB | 240GB |
| 本地存储 | 7TB 2.5-inch NVMe SSD drives × 8 | 2TB系统盘 + 40TB NVMe SSD本地盘 | 720GB系统盘 + 5TB NVMe SSD本地盘 |
| GPU互联网络 | NVLink Switch System 900GB/s per GPU RoCE2 RDMA网络支持 | 支持 NVLINK RoCE2 3.6Tbs RDMA网络 | - |
| 以太网络 | Mellanox Technologies MT2892 Family [ConnectX-6 Dx] link speed 100Gbps × 4 | - | - |
| 私有网络 | 最高 400Gbps | 25Gbps | 25Gbps |
| 公有网络 | 最高 40Gbps | 10Gbps | 10Gbps |
| 赠送出网流量 | 不限流量 | 60TB | 15TB |
| 计费模式 | 包年、包月 | 包年、包月、按需 | 包年、包月、按需 |
* 规格如有变动,以实际交付为准
NVIDIA HGX H200 技术规格
| H200 SXM¹ | Specification |
|---|---|
| FP64 | 34 TFLOPS |
| FP64 Tensor Core | 67 TFLOPS |
| FP32 | 67 TFLOPS |
| TF32 Tensor Core² | 989 TFLOPS |
| BFLOAT16 Tensor Core² | 1,979 TFLOPS |
| FP16 Tensor Core² | 1,979 TFLOPS |
| FP8 Tensor Core² | 3,958 TFLOPS |
| INT8 Tensor Core² | 3,958 TFLOPS |
| GPU Memory | 141GB |
| GPU Memory Bandwidth | 4.8TB/s |
| Decoders | 7 NVDEC 7 JPEG |
| Confidential Computing | Supported |
| Max Thermal Design Power (TDP) | Up to 700W (configurable) |
| Multi-Instance GPUs | Up to 7 MIGs @18GB each |
| Form Factor | SXM |
| Interconnect | NVIDIA NVLink™: 900GB/s PCIe Gen5: 128GB/s |
| Server Options | NVIDIA HGX™ H200 partner and NVIDIA-Certified Systems™ with 4 or 8 GPUs |
| NVIDIA AI Enterprise | Add-on |
需要锁定产能?
H200 供给有限,我们支持:
长期算力预订
弹性推理扩容方案
