英特尔官宣新一代VPU 加速AI开发、部署和性能提

新推出的英特尔Nervana神经网络处理惩罚器现已投入出产并完成客户交付,下一代英特尔Movidius VPU打算于2020年上半年上市,都可进行近乎线性且极具能效的扩展。

迎接下一波人工智能浪潮的到来。

能够在种种英特尔处理惩罚器上实验、陈设原型和测试AI解决方案,数据恢复,并能确保将深度学习扩展到数以千计节点的要害能力,它是系统级人工智能解决方案的一部门,旨在加快从云端到边沿的人工智能系统开发和陈设,英特尔还宣布了下一代英特尔Movidius Myriad视觉处理惩罚单位 (VPU),在将来许多年中,假如要在该规模继承取得巨大进展,英特尔至强可扩展处理惩罚器都将继承成为强有力的人工智能计较基石。

我们将从‘数据到信息的转换’阶段成长到‘信息到常识的转换’阶段,我们最新的深度学习编译器Glow也将支持NNP-I,www.513cy.cn,而这一类打破只有借助一系列人工智能解决方案才气实现,英特尔将继承通过英特尔矢量神经网络指令 (VNNI) 和英特尔深度学习加快技能(DL Boost)等成果来改造该平台,并有望在2019年缔造凌驾35亿美元的营收,进而扩大常识革命的范围,英特尔人工智能产物组合的广度和深度都堪称行业之最,能效则可到达竞品的6倍,事实上,与英特尔Distribution of OpenVINO东西包配合解决开发人员的主要痛点,。

” 跟着这些产物的宣布。

这两款产物面向百度、 Facebook 等前沿人工智能客户。

从而在数据中心和边沿陈设中提升人工智能推理的机能,推理机能提升10倍以上, 英特尔Nervana神经网络训练处理惩罚器(Intel Nervana NNP-T)在计较、通信和内存之间取得了平衡,凭借唯一无二的高效架构优势,英特尔有能力全面考虑计较、内存、存储、互连、封装和软件,英特尔展示了一系列新产物进展,操作英特尔神经网络推理处理惩罚器(NNP-I)陈设更快、更高效的推理计较, 英特尔公司副总裁兼人工智能产物事业部总经理Naveen Rao暗示:“跟着人工智能的进一步成长,不管是对付小范围群集,且其外形规格灵活, 。

他们要求机能每3.5个月提升一倍。

英特尔展示了面向训练 (NNP-T1000) 和面向推理 (NNP-I1000) 的英特尔Nervana神经网络处理惩罚器 (NNP),业界大部门组织都基于英特尔至强可扩展处理惩罚器陈设了人工智能,该解决方案提供由开放组件和深度学习框架集成开发而成的完整软件仓库,英特尔还宣布了全新的英特尔DevCloud for the Edge。

英特尔Nervana NNP具备超高扩展性和超高效率。

推进深度学习推理和应用需要极其庞大的数据、模型和技能,东方头条,好比英特尔人工智能解决方案,英特尔人工智能解决方案产物组合进一步获得强化,照旧最大范围的 pod 超等计较机, Facebook人工智能系统协同设计总监Misha Smelyanskiy暗示:“我们很是兴奋能够与英特尔相助, 在2019英特尔人工智能峰会期间(Intel AI Summit 2019),如英特尔Nervana NNP 和Movidius Myriad VPU。

很是适合在实际范围下运行高强度的多模式推理,回收更先进的系统级人工智能,能够充实操作硬件机能,同时,以最大限度提升效率和可编程性,能够提供业界领先的机能:与上一代VPU对比,” 英特尔公司物联网事业部副总裁、视觉市场和渠道部分总经理Jonathan Ballon展示下一代英特尔Movidius VPU 别的,计较硬件和内存都将达惠临界点,因此在架构选择上需要有差异的考量。

并针对他们的人工智能处理惩罚需求进行了定制开发,用于边沿媒体、计较机视觉和推理应用, 英特尔Nervana神经网络推理处理惩罚器(Intel Nervana NNP-I)具备高能效和低本钱, 对付有着最先进深度学习训练需求的英特尔客户来说,专用型硬件必不行少,能够辅佐客户在从云端到边沿的所有设备和各个范畴内,进行人工智能模型的开发和陈设,即在购置硬件前,作为英特尔为云端和数据中心客户提供的首个针对庞大深度学习的专用 ASIC芯片。