卓普云
企业首选主流 AI 算力

NVIDIA HGX H100 GPU 租赁

释放企业级 AI 训练与推理性能

基于 NVIDIA Hopper 架构的成熟算力方案

企业级算力

企业级 AI 计算首选:H100

基于 NVIDIA Hopper 架构,H100 是当前主流大模型训练与高性能推理的核心算力基础。

无论是百亿级模型训练、分布式微调,还是高并发推理服务,H100 都能提供稳定、成熟、广泛生态支持的 GPU 算力环境。

NVIDIA Hopper H100 GPU 模块

选择适合您的配置

灵活的部署方案,满足不同业务需求

H100 云服务器

  • 单卡 / 多卡实例可选
  • 分钟级启动
  • 支持按需 / 包月 / 包年计费
  • 适合弹性扩容与测试环境

H100 8卡集群

  • 8× H100 SXM
  • NVLink 高速互联
  • 3.2 TB/s GPU互连带宽
  • 25Gbps 私有网络
  • 10Gbps+ 公网带宽
  • 裸金属配置见下方技术规格

数据中心:北美、欧洲

交付形式:裸金属 / 虚拟化

应用场景

H100 适合哪些场景?

大模型预训练(LLaMA / Mistral / DeepSeek 系列)
多卡分布式微调
企业私有大模型部署
多租户推理服务
强 CUDA 生态依赖项目

为什么选择我们?

专业的服务,可靠的保障

成本节省

  • 成本最高节省 30%–70%
  • 账单透明,无隐藏网络费

弹性扩容

  • 支持短期弹性扩容
  • 支持 Kubernetes

企业级服务

  • 符合 HIPAA 和 SOC 2标准的产品
  • 由企业级SLA和值得信赖的24/7 全天候支持团队提供支持,确保您的在线服务
  • 提供架构级部署建议
  • 专属技术支持
技术规格

H100 技术规格

多种配置选项,满足不同规模的 AI 训练与推理需求

规格项H100 8卡 裸金属H100 8卡 云主机H100 单卡 云主机
GPUNVIDIA HGX H100 80GB 700W SXM5 GPUs, fully interconnected with NVIDIA NVLink technologyNVIDIA H100 SXM5 GPUs*8, 80GB* 8 640GB HBM3 MemoryNVIDIA H100 SXM5 GPU 80GB HBM3 Memory
CPU96 cores 192 Threads Intel(R) Xeon(R) Platinum 8468 *2, 4th Gen Intel® Xeon® Scalable Processors160 VCPU20 VCPU
内存2048GB(64GB*32)1920GB240GB
本地存储7TB 2.5-inch NVMe SSD drives*82TB系统盘,40TB NVMe SSD本地盘720GB系统盘,5TB NvMe SSD本地盘
GPU互联网络Mellanox Network Adapter MT2910 Family ConnectX-7, 400Gbps*8 支持NVLINK RoCE2 3.2Tbs(400Gbps*8) RoCE2支持NVLINK,RoCE2 3.2Tbs(400Gbps*8) RDMA网络-
以太网络Mellanox Technologies MT2892 Family [ConnectX-6 Dx] ; link speed 100Gps*4--
私有网络最高400Gbps25Gbps25Gbps
公有网络最高40Gbps10Gbps10Gbps
赠送出网流量-60TB15TB
计费模式包年、包月包年、包月、按需包年、包月、按需

* 规格如有变动,以实际交付为准

性能对比

性能对比

全面对比不同 GPU 型号的技术规格和性能指标

GPU型号GPU显存内存vCPU启动磁盘临时磁盘架构
AMD Instinct™ MI350X288 GB256 GiB24720 GiB NVMe5 TiB NVMeCDNA 4™
AMD Instinct™ MI350X×82,304 GB2,048 GiB1922,046 GiB NVMe40 TiB NVMeCDNA 4™
AMD Instinct™ MI325X*256 GB164 GiB20720 GiB NVMe5 TiB NVMeCDNA 3™
AMD Instinct™ MI325X×8*2,048 GB1,310 GiB1602,046 GiB NVMe40 TiB NVMeCDNA 3™
AMD Instinct™ MI300X192 GB240 GiB20720 GiB NVMe5 TiB NVMeCDNA 3™
AMD Instinct™ MI300X×81,536 GB1,920 GiB1602,046 GiB NVMe40 TiB NVMeCDNA 3™
NVIDIA H200141 GB240 GiB24720 GiB NVMe5 TiB NVMeHopper
NVIDIA H200×81,128 GB1,920 GiB1922,046 GiB NVMe40 TiB NVMeHopper
NVIDIA H10080 GB240 GiB20720 GiB NVMe5 TiB NVMeHopper
NVIDIA H100×8640 GB1,920 GiB1602,046 GiB NVMe40 TiB NVMeHopper
NVIDIA RTX 4000 Ada Generation20 GB32 GiB8500 GiB NVMe-Ada Lovelace
NVIDIA RTX 6000 Ada Generation48 GB64 GiB8500 GiB NVMe-Ada Lovelace
NVIDIA L40S48 GB64 GiB8500 GiB NVMe-Ada Lovelace

需要大规模 H100 集群?

支持 16卡 / 32卡 / 多节点 IB 扩展

支持企业长期算力预留

获取企业专属方案

  • 1对1 技术咨询,评估您的 AI 算力需求
  • 定制化配置方案,优化成本与性能
  • 优先交付保障,快速部署算力资源
  • 全程技术支持,助力 AI 项目成功落地
24/7
技术支持
99.95%
服务可用性
北美·欧洲
数据中心
400 800 3155
在线咨询
添加微信
联系我们
400 800 3155
在线咨询
添加微信
联系我们