» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[数码手机] 老黄和ARM合作AI硬件压制菊花水果等第三方厂商

英伟达宣布与芯片巨头ARM合作打造物联网AI芯片(IOT AI SOC),将英伟达的AI技术集成到今年2月ARM推出的Project Trillium框架里,让芯片厂商更容易打造自己的AI芯片,包括手机芯片、消费电子芯片、物联网芯片等。这一技术源于去年GTC上英伟达开源的DLA深度学习加速器项目。

现场,黄仁勋告诉智东西,DLA(Deep Learning Accelerator,深度学习加速器)本质上是英伟达打造的ASIC芯片。现在很多的AI芯片,比如谷歌的TPU,本质上都是一个ASIC硬件。

英伟达内部也会使用DLA,比如在同一个GPU系统里,既会有Tensor Core、也会有DLA,两个硬件都会用来做AI应用(inference),这种冗余与多样性是为了确保系统的安全稳定。

黄仁勋说,本次和ARM的合作,将DLA集成到ARM的IP框架当中去后,厂商可以下载从小到大不同配置的AI架构,打造自己的AI芯片。不过这个芯片上面需要跑TensorRT软件

Deepu Talla告诉智东西,DLA是个开源项目,本次合作将不会向ARM收取费用。DLA项目已经研发了三年了,之所以会选择免费开源,是因为物联网这类项目不是英伟达关注的重点。

在最近半年间,不少端智能专用AI芯片开始涌现,其中最受人关注当属两款手机芯片:华为麒麟970、苹果的A11。Deepu Talla在现场谈到,现在暂时没有英伟达深度学习加速器IP与麒麟970 NPU、苹果A11神经网络引擎的对比参数。不过,经过了DLA三年研发后,英伟达发现打造一个深度学习加速器硬件其实是整个项目中最简单的部分,困难的部分是软件,如何更好地支持各种AI软件、AI框架、如何更好地对神经网络进行部署等。

在这些方面,英伟达众多软件工程师们已经投入了多年的研究,尤其是神经网络的应用(inference)与部署(deploy)方面,在本次GTC上,黄仁勋也推出了新版TensorRT 4.0,让神经网络的部署更加简便快捷,相比华为apple等第三方硬件厂商,ARM和老黄合作的新平台可以直接利用桌面GPU训练的模型和软件代码,无需另外再移植优化,部署难度和速度优势要强的多


TOP

posted by wap, platform: Lenovo
terga要复活吗



TOP

发新话题
     
官方公众号及微博