NVIDIA 今天在 GTC 大会上宣布,多家中国顶级云服务提供商、系统制造商都部署了 NVIDIA A100 Tensor Core GPU、NVIDIA 技术,为各种 AI 应用提速。
今年 5 月,NVIDIA 推出了首款基于安培架构的 A100 GPU,台积电 7nm 工艺制造,集成多达 542 亿个晶体管,核心面积达 826 平方毫米,内置 6912 个 FP32 CUDA 核心,最高加速频率 1.4GHz,搭配 512-bit 40GB HBM2 显存,带宽达 1.6TB/s。
相比上代伏特架构的 V100 核心,它的 INT8 推理、FP32 训练性能提升 20 倍,FP64 计算性能提升 2.5 倍,是历史上进步最大的一次。
A100 GPU 还配备了精度更高的第三代 Tensor Core 张量核心、GPU 间传输率高达 600GB/s的第三代 NVIDIA NVLink、NVIDIA NVSwitch、PCIe 4.0、NVIDIA Magnum IO 软件 SDK,可实现成千上万个 GPU 集群的高效扩展。
部署 A100 的中国云服务商有:
- 阿里云
已发布 gn7 GPU 系列云服务器,内置 8 块 A100,主要面向 AI 训练和高性能计算应用,可提供新一代 GPU 计算实例,相比上一代平台 AI 性能提升最高 20 倍,高性能计算提升 2.5 倍。
- 百度智能云
即将推出 lgn3 GPU 系列云服务器、vGPU 云服务器、百度太行裸金属服务器。
最多搭载 8 块 A100 GPU、8TB NVMe SSD、数百G带宽,主要面向 AI 训练/推理、高性能计算应用、科学计算等场景,计算能力 20 倍于上代 V100。
- 滴滴云
A100 裸金属服务器,配置 8 块 A100 GPU、2 颗 AMD EPYC 7302 处理器、1024GB 内存、2 个 240GB SATA SSD、2 个 2TB NVME SSD,适用于 AI、数据分析、高性能计算等多种应用场景。
- 腾讯云
已推出云服务器 GT4,搭配 AMD 第二代霄龙平台,最高 180 核心 vGPU,适用于深度学习训练、推理、高性能计算、数据分析、视频分析等领域。
部署 A100 的中国 OEM 厂商有:
- 新华三
已推出搭载 8 颗 A100 GPU 的全互联 6U 服务器 H3C UniServer R5500 G5,同时全线 GPU 服务器机型已同步适配升级,包括 H3C UniServer R4900 G3(2U 3GPU)、R5300 G3(4U 8GPU)、R4950 G5(2U 4GPU),部分机型已完成 NVQUAL 认证,全面覆盖集群建设、大规模 AI 模型训练、高性能计算、AI 项目部署等应用场景。
- 浪潮
已发布发布多款支持 A100 40G 的 AI 服务器,可配置8-16 颗,包括 NF5488M5-D、NF5488A5、 NF5688M6、NF5888M6,还推出了三款支持 A100 PCIe 版本的服务器 NF5468M6、NF5468A5、NF5280M6。
配备最新 A100 80GB GPU 的 AI 服务器 NF5488M5-D、NF5488A5 也已全球量产供货。
- 联想
推出了配备 A100 GPU 的 HG680X,4U 8GPU 规格,可满足单机多卡需求,支持两种拓扑形式,存储支持最多 8 个 NVMe SSD 加 16 个 2.5 英寸 SAS/SSD,或者 24 个 2.5 英寸 SAS/SSD。
适用于大型深度学习模型训练场景、大量数据的推理场景,适应不同深度学习算法与改进,可满足互联网、金融、制造等不同行业客户的多样化需求。
- 宁畅
X640 G30 GPU 服务器完成 8 卡 A100 的适配,并通过了 NVIDIA NVQUAL 的官方认证,可针对不同场景进行 GPU 互联拓扑调整、升级算力。现已在客户处完成批量部署,应用于海量数据训练、深度学习、语音识别、图像识别等领域。
相关推荐
© 2020 asciim码
人生就是一场修行