最高性能的GPU
Century LT 私有云仅使用最新最强大的基础设施,为下一代LLM和其他大规模模型而构建。
NVIDIA H800 SXM
NVIDIA H800 Tensor Core GPU配备80GB HBM3内存,带宽为3.35TB/s,部署在具有NVLink和NVSwitch互连的HGX 8-GPU节点中,配备第4代Intel Xeon处理器、具有FP8精度的Transformer引擎和第二代多实例GPU技术。
NVIDIA H20 SXM
NVIDIA H20 Tensor Core GPU是首款提供HBM3e的GPU - 更快、更大的内存,用于加速生成式AI和LLM。通过HBM3e,H20提供141GB内存,带宽为4.8TB/s,容量几乎是NVIDIA H800的两倍,带宽提高1.4倍。
GPUs, storage & networking designed for AI workloads
| INSTANCE TYPE | GPU | GPU MEMORY | vCPUs | STORAGE | NETWORK BANDWIDTH | |
|---|---|---|---|---|---|---|
| NVIDIA H800 | 8x NVIDIA H800 | H800 SXM | 80 GB | 224 | 30 TB local per 8x H800 | 3200 Gbps per 8x H800 |
| NVIDIA H20 | 8x NVIDIA H20 | H20 SXM | 141 GB | 224 | 30 TB local per 8x H20 | 3200 Gbps per 8x H20 |
终于,为大规模模型训练和推理设计的云计算
Century LT私有云专为需要最高性能NVIDIA GPU、网络和存储的机器学习工程师设计,用于大规模分布式训练。我们的集群使用无阻塞NVIDIA Quantum-2 InfiniBand计算网络,使您的ML团队能够在数千个GPU上部署大型模型,而不会影响网络速度。
数千个最强大的GPU
在数千个NVIDIA H800、H20上训练大规模模型,无延迟无瓶颈。访问最新基础设施,为您最具挑战性的AI项目而建。
绝对最快的GPU计算架构
每个GPU都通过专用400 Gbps链路1:1连接到Century LT私有云计算架构。这是GPU计算扩展到每秒多PB吞吐量的最佳网络拓扑。
无阻塞InfiniBand网络
可用的最快网络,同时为集群中所有GPU提供全带宽。利用支持GPUDirect RDMA的NVIDIA Quantum-2 InfiniBand,针对大规模全集群分布式训练进行优化。
NVIDIA H20
NVIDIA GH20
用于LLM、基础模型和生成式AI分布式训练的最快网络
使用任何云中最快的网络训练大型基础模型和LLM。我们的NVIDIA Quantum-2 InfiniBand网络为每个HGX H800、H20提供3200 Gbps带宽。
为机器学习预配置
通过预配置的软件、共享存储和深度学习网络立即开始训练您的模型。您只需选择NVIDIA GPU节点和CPU节点即可。
Century LT私有云的Century LT高级支持包括PyTorch、TensorFlow、NVIDIA CUDA、NVIDIA cudNN、Keras和Jupyter。不包含Kubernetes。