专业级云服务器
GPU云服务器 g2
具备 GPU 加速计算能力的实例,可同时提供 GPU 和 CPU 计算资源,大幅提高机器学习及科学计算等大规模计算框架的运行速度,为搭建人工智能及高性能计算平台提供基础架构支持。主要应用场景包括人工智能深度学习、高性能计算、图形图像处理等领域。
说明:
在北京3区-A、北京3区-B、北京3区-D、上海1区-A四个区域,支持开通 NVIDIA Tesla P100 GPU云服务器。
特点:
- GPU类型为NVIDIA Tesla P100,专门为计算加速场景优化设计,可提供3584个并行计算核心,单精度浮点运算能力达9.3TFLOPS,双精度浮点运算能力达4.7TFLOPS。
- CPU采用第二代英特尔®至强®金牌6240处理器,主频:2.6GHz,睿频最高可达3.9GHz
- 配有全新的 Intel Advanced Vector Extension (AVX-512) 指令集,在深度学习的多种场景性能提升4倍
- 处理器内存配比1:4
- I/O优化
- 支持 VPC 私有网络和基础网络
- 系统盘支持企业级SSD硬盘,数据盘支持企业级SSD硬盘、容量型和企业级分布式 SAN
GPU云服务器 g2 包括的实例规格和性能指标如下:(内网带宽和显存待确定)
实例类型 | CPU | 内存 | GPU | 内网带宽 |
---|---|---|---|---|
g2ntp100.4xlarge.r4 | 16核 | 64G | 1*NVIDIA TESLA P100 | 6 Gbps |
g2ntp100.8xlarge.r4 | 32核 | 128G | 2*NVIDIA TESLA P100 | 12 Gbps |
GPU云服务器 g3
由 NVIDIA Ampere 架构提供支持,作为 NVIDIA 数据中心平台的引擎,A100 的性能比上一代产品提升高达 20 倍,并可划分为七个 GPU 实例,以根据变化的需求进行动态调整。可针对 AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速,有效助力全球高性能弹性数据中心。在大数据分析基准测试中,A100 的速度比 CPU 快 42 倍,非常适合处理数据集大小激增的新型工作负载。
说明:
仅在济南一区可创建 NVIDIA A100 GPU云服务器。
特点:
- CPU采用第三代英特尔®至强®可扩展处理器(Ice Lake),主频:2.6GHz,睿频:3.4GHz
- 处理器内存比:8:60
- 推理吞吐量提升到高达 CPU 的 249 倍
- 在大型模型上将 AI 训练的速度提升高达 3 倍
- 与 CPU 相比,AI 推理性能提升高达 249 倍
- I/O优化
- 支持 VPC 私有网络和基础网络
- 系统盘支持企业级SSD硬盘,数据盘支持企业级SSD硬盘、容量型和企业级分布式 SAN
GPU云服务器 g3 包括的实例规格和性能指标如下:(内网带宽和显存待确定)
实例类型 | CPU | 内存 | GPU | 内网带宽 |
---|---|---|---|---|
g3na100.2xlarge.g1 | 8核 | 60G | 1*NVIDIA A100 | 4 Gbps |
g3na100.4xlarge.g2 | 16核 | 120G | 2*NVIDIA A100 | 8 Gbps |
g3na100.8xlarge.g4 | 32核 | 240G | 4*NVIDIA A100 | 16 Gbps |
g3na100.16xlarge.g8 | 62核 | 460G | 8*NVIDIA A100 | 50 Gbps |
弹性裸金属云服务器 bm3
采用第三代英特尔®至强®可扩展处理器(代号:Ice Lake)和 DPU 架构,通过引入智能网卡,实现存储、网络等数据处理功能卸载,让用户可独享 CPU 计算资源,实现裸金属服务器的完整算力保留,以极致性能满足各类核心业务需求。
弹性裸金属 BM3 同时具备云服务器的弹性、敏捷性、灵活性与高可用,支持按需使用,且用户业务应用可直接访问处理器和内存,无任何虚拟化开销。
说明:
仅在北京三区可创建弹性裸金属服务器。
特点:
- 第三代英特尔®至强®可扩展处理器(Ice Lake),主频:2.6GHz,睿频:3.4GHz
- 具有 128 核、512 G内存的超强算力
- 通过在服务器侧引入智能网卡,将网络、存储、操作系统中不适合由 CPU 支持的高性能数据处理功能卸载到智能网卡中执行
- I/O优化
- 支持 VPC 私有网络和基础网络
- 系统盘支持企业级SSD硬盘,数据盘支持企业级SSD硬盘、容量型和企业级分布式 SAN
实例类型 | CPU | 内存 | 内网带宽 |
---|---|---|---|
bm3 | 128核 | 512G | 32 Gbps |