在推动产业智能化的道路上,百度智能云将基于全新NVIDIA A100 Tensor Core GPU为客户提供更强大的AI算力支持。NVIDIA A100 Tensor Core GPU由NVIDIA Ampere架构赋能,是首个集训练、推理、HPC和分析于一身的弹性多实例GPU。这些全新突破可以为不同规模的人工智能、数据分析以及高性能计算提供前所未有的加速。作为全球领先的云服务商之一,百度智能云和NVIDIA达成重要合作,将成为全球第一批部署 A100 GPU的云服务商,从而为客户提供更强大的AI算力,加速AI落地应用。
据悉,全新的NVIDIA Ampere GPU架构可以为AI、数据科学以及高性能计算等提供6倍的性能提升。而基于NVIDIA Ampere架构的首款产品A100 Tensor Core GPU则是全球最大的7纳米处理器,拥有超过540亿个晶体管
这些设计突破性地结合了第三代NVIDIA Tensor Core、新的多实例GPU功能、结构化疏松技术和第三代NVIDIA NVLink 高速互联技术™等关键性技术,使得A100 Tensor Core GPU能够在各种规模的计算上提供前所未有的加速。并且,依靠NVIDIA数据中心平台的多功能性,A100能够显著提速人工智能训练和推理以及科学模拟、会话人工智能、推荐系统、基因组学、高性能数据分析、地震建模和财务预测等高强度的工作负载。
百度与NVIDIA合作渊源已久,自2012年开始,双方就在人工智能领域展开多项合作。作为国内人工智能的头雁企业,百度在深度学习、语音识别、图像识别、自然语言处理、用户画像、知识图谱等领域均拥有深厚的技术积累。如今,百度智能云成为首批搭载NVIDIA A100 Tensor Core GPU的企业之一,将把A100 GPU整合到AI、数据科学和高性能计算的服务和产品中,从而为百度智能云在深度学习训练以及推理端的提升带来巨大价值。
具体说来,凭借A100 GPU的多功能性,百度智能云可以最大限度地利用数据中心中的每个GPU,以满足不同规模的加速需求,从最小的作业到最大的多节点工作负载。A100是NVIDIA加速数据中心计算平台的核心,包括NVSwitch和HGX等服务器技术。还有全堆栈的CUDA-X,包括HPC和AI加速库在内的软件已经使170多万开发人员能够加速数百个应用程序。NGC 软件库包括了GPU优化的AI框架、预训练模型、工具包和SDK。NGC可以帮助数据科学家和开发者轻易地在百度智能云实例上构建和部署他们的AI。
百度智能云一直秉承着“ABC”(AI,Big Data, Cloud)三位一体的发展战略,将人工智能技术、大数据技术和云计算技术融合在一起,协同发展。为社会各个行业提供安全、高性能、智能的计算和数据处理服务,让智能的云计算成为社会发展的新引擎。当下,百度智能云作为百度AI to B的重要承载者和输出者,承担着推进AI落地应用以及产业智能化的重任。百度智能云已经在智慧金融、智慧城市、智能制造、智慧医疗、智能媒体等多个行业取得多项落地成果,有效助力不同行业的不同客户充分发挥他们的数据价值,实现智能化升级。
在智能经济时代,随着“新基建”的兴起,人工智能、云计算和大数据成为了新的基础设施,万物上云已经成为共识。面对庞大的数据和运算,需要有强大的计算性能支持,以提升数据处理的速度精度。通过部署NVIDIA A100 Tensor Core GPU,将大大提升算力,帮助百度智能云更好地输出AI能力,加速产业智能化进程。