安培的核心着火了:中国的八大巨头共同拥护NVIDIA A100

NVIDIA今天在GTC会议上宣布,中国许多顶级云服务提供商和系统制造商已经部署了NVIDIA A100 Tensor Core GPU和NVIDIA技术,以加速各种AI应用程序。

NVIDIA在今年5月推出了首个基于Ampere架构的A100 GPU,该芯片是由台积电的7nm工艺制造的,集成了多达542亿个晶体管,核心面积为826平方毫米,内置6912 FP32 CUDA内核,最大加速频率为1.4GHz。

512位40GB HBM2视频存储器,带宽为1.6TB / s。

与上一代Volt架构的V100内核相比,其INT8推理和FP32训练性能提高了20倍,FP64计算性能提高了2.5倍,这是历史上最大的改进。

A100 GPU还配备了更高精度的第三代Tensor Core张量核心,第三代NVIDIA NVLink,NVIDIA NVSwitch,PCIe 4.0和NVIDIA Magnum IO软件SDK,GPU之间的传输速率高达600GB / s ,可以实现成千上万个GPU集群的数千个高效扩展。

部署A100的中国云服务提供商包括:-阿里云发布了gn7 GPU系列云服务器,其中包含8台内置A100,主要用于AI培训和高性能计算应用程序,并且可以提供新一代GPU计算实例。

具有上一代平台的AI性能高达20倍,而高性能计算则高达2.5倍。

-百度智能云即将推出lgn3 GPU系列云服务器,vGPU云服务器和百度太行裸机服务器。

它配备了多达8个A100 GPU,8TB NVMe SSD和数百GB的带宽。

它主要用于AI训练/推理,高性能计算应用程序,科学计算和其他场景。

计算能力是上一代V100的20倍。

-Didi Cloud A100裸机服务器,配备8个A100 GPU,2个AMD EPYC 7302处理器,1024GB内存,2 240GB SATA SSD,2个2TB NVME SSD,适用于AI,数据分析,高性能计算等。

场景。

-腾讯云推出了具有AMD第二代骁龙平台,高达180核vGPU的云服务器GT4,适用于深度学习培训,推理,高性能计算,数据分析,视频分析等领域。

部署A100的中国OEM厂商包括:-H3C已推出配备8个A100 GPU的全互连6U服务器H3C UniServer R5500 G5。

同时,所有GPU服务器型号均已同步升级,包括H3C UniServer R4900 G3(2U 3GPU),R5300 G3(4U 8GPU),R4950 G5(2U 4GPU),部分型号已完成NVQUAL认证,全面覆盖集群构建,大规模AI模型训练,高性能计算,AI项目部署和其他应用场景。

-浪潮已发布了许多支持A100 40G的AI服务器,这些服务器可以配置为8-16,包括NF5488M5-D,NF5488A5,NF5688M6,NF5888M6和三台支持A100 PCIe版本的服务器,NF5468M6,NF5468A5和NF5280M6。

配备了最新的A100 80GB GPU的AI服务器NF5488M5-D和NF5488A5也已在全球范围内批量生产。

-联想推出了配备A100 GPU,4U 8GPU规格的HG680X,可以满足单机多卡的需求,支持两种拓扑,存储支持多达8个NVMe SSD以及16个2.5英寸SAS / SSD或24个2.5英寸SAS / SSD。

适用于大规模深度学习模型训练场景和大量数据推理场景,适应不同的深度学习算法和改进,可以满足互联网,金融,制造业等不同行业客户的多样化需求。

-宁昌X640 G30 GPU服务器完成了对8卡A100的适配,并通过了NVIDIA NVQUAL的官方认证,可以调整GPU的互连拓扑并提高针对不同场景的计算能力。

它已在客户中分批部署,并应用于海量数据培训,深度学习,语音识别,图像识别等领域。