接受预定 | NVIDIA DGX STATION A100 为研究人员提供一体式AI数据中心

在 SC20(Supercomputing Conference)超级计算大会上,NVIDIA 发布了全球唯一的千万亿级工作组服务器NVIDIA DGX Station™ A100 。安培架构的桌面级超算中心,已强势登场!


作为开创性的第二代人工智能系统,DGX Station A100加速满足位于全球各地的公司办公室、研究机构、实验室或家庭办公室中办公的团队对于机器学习和数据科学工作负载的强烈需求。


DGX Station A100的AI性能可达2.5 petaflops,是唯一一台配备四个通过NVIDIA NVLink®完全互连的全新NVIDIA® A100 Tensor Core GPU的工作组服务器,可提供高达320GB的GPU内存,能够助力企业级数据科学和AI领域以最速度取得突破。


DGX Station A100也是唯一支持NVIDIA多实例GPU(MIG)技术的工作组服务器。借助MIG,单一DGX Station A100最多可提供28个独立GPU实例以运行并行任务,并可在不影响系统性能的前提下支持多用户。


NVIDIA副总裁兼 DGX系统总经理Charlie Boyle表示:“DGX Station A100将AI从数据中心引入可以在任何地方接入的服务器级系统。数据科学和AI研究团队可以使用与NVIDIA DGX A100系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”

DGX Station驱动AI创新

全球各机构都已采用DGX Station,赋力教育、金融服务、政府、医疗健康、零售等行业的AI和数据科学应用。这些AI领导者包括:


  • 宝马集团生产部门正在使用NVIDIA DGX Station来开发和部署AI模型,以完善运营,从而更快速地获得深入的洞察。


  • 德国人工智能研究中心(DFKI)正借助DGX Station构建能够应对重大社会和行业挑战的模型,包括能够帮助紧急服务快速响应自然灾害的计算机视觉系统。


  • NTT Docomo是日本领先的移动运营商,拥有超过7900万用户。其借助DGX Station开发创新的AI驱动的服务,例如其图像识别解决方案。


  • 太平洋西北国家实验室(PNNL)正在使用NVIDIA DGX Station 开展研究,该研究获得了联邦资助,旨在助力提升国家安全。PNNL专注于能源弹性和国家安全方面的技术创新,是美国领先的高性能计算(HPC)中心,致力于科学发现、能源弹性、化学、地球科学和数据分析领域的研究。

一台随处可得的AI超级计算机

作为服务器级的系统,DGX Station A100无需配备数据中心级电源或散热系统,却具有与NVIDIA DGX A100数据中心系统相同的远程管理功能。当数据科学家和研究人员在家中或实验室办公时,系统管理员可轻松地通过远程连接,执行任何管理任务。


DGX Station A100配备四组80GB或40GB NVIDIA A100 Tensor Core GPU,让数据科学和AI研究团队能够结合自身工作负载和预算来选择系统。


为支持诸如BERT Large推理等复杂的对话式AI模型,DGX Station A100比上一代DGX Station提速4倍以上。对于BERT Large AI训练,其性能提高3倍以上。

DGX Station A100具体参数指标

NVIDIA A100 GPU 80GB

在 SC20(Supercomputing Conference)超级计算大会上,还同时发布了NVIDIA Ampere架构 A100 80 GB GPU。


NVIDIA应用深度学习研究副总裁Bryan Catanzaro表示:“若想获得HPC和AI的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A100 80GB GPU所提供的内存是六个月前推出的前代产品的两倍,突破了每秒2TB的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”

A100 80GB的关键特性

A100 80GB具备NVIDIA Ampere架构突破性特性:


  • 第三代Tensor Core核心:通过全新TF32,将上一代Volta架构的AI吞吐量提高多达20倍。通过FP64,将HPC性能提高多达2.5倍。通过 INT8,将AI推理性能提高多达20倍,并且支持BF16数据格式。

     

  • 更大、更快的HBM2e GPU内存:使内存容量增加一倍,在业内率先实现2TB/s以上的内存带宽。

     

  • MIG技术:将单个独立实例的内存增加一倍,可最多提供七个MIG,每个实例具备10GB内存。

     

  • 结构化稀疏:将推理稀疏模型的速度提高2倍。

     

  • 第三代NVLink和NVSwitch,相较于上一代互连技术,可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600 gigabytes。

供货情况

NVIDIA DGX Station A100和NVIDIA DGX A100 640GB系统开始接受预定。NVIDIA DGX A100 320GB用户可选择升级。