私有大规模 GPU集群

为数千个NVIDIA H800、H20 GPU提供年度合约

企业级GPU

最高性能的GPU

Century LT 私有云仅使用最新最强大的基础设施,为下一代LLM和其他大规模模型而构建。

NVIDIA H800 SXM

NVIDIA H800 Tensor Core GPU配备80GB HBM3内存,带宽为3.35TB/s,部署在具有NVLink和NVSwitch互连的HGX 8-GPU节点中,配备第4代Intel Xeon处理器、具有FP8精度的Transformer引擎和第二代多实例GPU技术。

NVIDIA H20 SXM

NVIDIA H20 Tensor Core GPU是首款提供HBM3e的GPU - 更快、更大的内存,用于加速生成式AI和LLM。通过HBM3e,H20提供141GB内存,带宽为4.8TB/s,容量几乎是NVIDIA H800的两倍,带宽提高1.4倍。

SPEEDS AND FEEDS

GPUs, storage & networking designed for AI workloads

  INSTANCE TYPE GPU GPU MEMORY vCPUs STORAGE NETWORK BANDWIDTH
NVIDIA H800 8x NVIDIA H800 H800 SXM 80 GB 224 30 TB local per 8x H800 3200 Gbps per 8x H800
NVIDIA H20 8x NVIDIA H20 H20 SXM 141 GB 224 30 TB local per 8x H20 3200 Gbps per 8x H20
GPU SUPERPOWERS

终于,为大规模模型训练和推理设计的云计算

Century LT私有云专为需要最高性能NVIDIA GPU、网络和存储的机器学习工程师设计,用于大规模分布式训练。我们的集群使用无阻塞NVIDIA Quantum-2 InfiniBand计算网络,使您的ML团队能够在数千个GPU上部署大型模型,而不会影响网络速度。

数千个最强大的GPU

在数千个NVIDIA H800、H20上训练大规模模型,无延迟无瓶颈。访问最新基础设施,为您最具挑战性的AI项目而建。

绝对最快的GPU计算架构

每个GPU都通过专用400 Gbps链路1:1连接到Century LT私有云计算架构。这是GPU计算扩展到每秒多PB吞吐量的最佳网络拓扑。

无阻塞InfiniBand网络

可用的最快网络,同时为集群中所有GPU提供全带宽。利用支持GPUDirect RDMA的NVIDIA Quantum-2 InfiniBand,针对大规模全集群分布式训练进行优化。

NVIDIA GH20 SUPERCHIP
FLEXIBLE CONTRACTS

The only cloud prioritizing flexibility and value for ML teams

NVIDIA H20

H20 价格: 联系销售
  
最低合约期限: 3 年 
 

NVIDIA GH20

1-Year Reservation: $5.99/hr/GH20 
 
Minimum Term: 3 Months
 
 
NETWORKING SPEED
setup

用于LLM、基础模型和生成式AI分布式训练的最快网络

使用任何云中最快的网络训练大型基础模型和LLM。我们的NVIDIA Quantum-2 InfiniBand网络为每个HGX H800、H20提供3200 Gbps带宽。

AI SOFTWARE INSTALLED
pre-configured-ml-logos

为机器学习预配置

通过预配置的软件、共享存储和深度学习网络立即开始训练您的模型。您只需选择NVIDIA GPU节点和CPU节点即可。

Century LT私有云的Century LT高级支持包括PyTorch、TensorFlow、NVIDIA CUDA、NVIDIA cudNN、Keras和Jupyter。不包含Kubernetes