NVIDIA 与微软共同推出符合业界标準的超大规模GPU加速

  • NVIDIA 与微软共同推出符合业界标準的超大规模GPU加速器 促进AI云端运算发展

    NVIDIA 与微软共同推出符合业界标準的超大规模GPU加速

    NVIDIA (辉达) 今天宣布与微软 (Microsoft) 携手合作,揭晓全新专为驱动人工智慧 (AI) 云端运算的超大规模 (hyperscale) GPU 加速器蓝图。

    全新 HGX-1 是一款结合微软 Project Olympus 开源设计的超大规模 GPU 加速器,提供超大规模资料中心于人工智慧快速且具弹性的途径。

    HGX-1 适用于基于云端的人工智慧作业负载,如同二十多年前为PC 主机板所推出ATX (Advanced Technology eXtended)时的角色一般,HGX-1 建立了一项业界标準,能快速且有效的被採用以协助达到急速增长的市场需求。

    全新架构设计是为满足 AI 云端运算的爆炸性需求,其领域包含自动驾驶、个人医疗照护、超越人类的语音辨识、数据与影像分析以及分子模拟等。

    NVIDIA 公司共同创办人暨执行长黄仁勋表示:「AI为全新的运算模型,因此需要全新的架构支援。HGX-1 超大规模 GPU 加速器在AI云端运算所扮演的角色,如同过去 ATX 标準使现在PC 能够普及一样。HGX-1 将使云端服务供应商能更轻易的透过 NVIDIA GPU 满足激增的AI 运算需求。」

    微软公司总经理暨 Azure 硬体基础架构部门杰出工程师 Kushagra Vaid 于部落格表示:「HGX-1 AI 加速器提供极至效能扩充以达成快速成长的机器学习作业负载需求,同时,其特殊的设计使现今全球各地的资料中心皆能轻易採用。」

    对于全球数千家已投资 AI 与採纳基于 AI 作业方法的企业与新创公司而言,HGX-1  的架构在云端上展现了前所未有的配置管理与效能。

    HGX-1 在每部主机皆配置 8 颗 NVIDIA® Tesla® P100 显示卡,其特色在于使用以 NVIDIA NVLink™ 互联技术与 PCle 标準为基础的创新转换设计,使 CPU 能够任意与多颗 GPU 进行连接。这让在 HGX-1 基础架构标準化的云端服务业者,能提供客户各种 CPU 与 GPU 的机器配置。

    云端作业较以往更加的多样化且複杂。AI 训练、推论和高效能运算 (HPC) 作业负载透过 CPU 连结至不同数量的 GPU,以最佳的方式运行于不同的系统配置中。不论作业负载量多大,HGX-1 的高度模组化设计使其能以最佳的效能运行。同时,HGX-1 提供较传统基于 CPU 的伺服器快达 100 倍的深度学习效能,却仅有五分之一的执行 AI 训练成本与十分之一的 AI 推论成本。

    HGX-1 透过与全球各地资料中心合作的高度弹性,提供目前超大规模资料中心用于 AI 领域快速且简单的途径。

    透过合作将业界标準推伸至超大规模层级

    微软、NVIDIA 和鸿海子公司鸿佰科技 (Ingrasys) 共同合作打造 HGX-1 平台的架构与设计,为微软 Project Olympus 贡献 Open Compute Project 的一部分,并将此资源开放分享。Open Compute Project 目标将开源效益应用于硬体上,并迅速提高资料中心内外的创新脚步。

    利用广大的 Open Compute Project 社群分享相关的参考设计意味着企业能够轻易的购买或部署相同的设计于他们自己的资料中心。

    NVIDIA 加入 Open Compute Project

    NVIDIA 加入 Open Compute Project 以帮助驱动资料中心的 AI 技术和革新,并计画将持续与微软、鸿佰科技和其他成员的合作,一同为云端服务供应商和其他资料中心客户升级 AI-ready 运算平台。

    掌握 NVIDIA 最新动态

    请订阅 NVIDIA 官方部落格或追蹤  Facebook  、 Google+ 、 Twitter 、 Linkedin  与 Instagram 。浏览 NVIDIA 相关影片及图片,请至  YouTube  或  Flickr  。

  • 相关推荐