当前位置: 首页  > 新闻中心  > 英特尔推出深度学习处理器 Knights Mil

英特尔推出深度学习处理器 Knights Mil

发布时间:2016-11-24

在IDF会议上,Intel宣布了Xeon Phi家族的新成员,代号Knights Mil。它将于2017年问世,针对深度学习市场。

Xeon Phi是Intel针对高性能计算市场推出的加速卡,主要与NVIDIA的Tesla、AMD的FirePro S等产品竞争,不过后两者是基于GPU的,而Xeon Phi是X86众核架构的。

Xeon Phi目前已经发展了三代,第一代Knigts Corner,22nm工艺,最多61个核心,浮点性能1TFLOPS。第二代是Knights Landing,14nm工艺,最多72核心,浮点性能3+TFLOPS。

英特尔于2014年宣布第三代Knights Hill,制程工艺升级到10nm。然而这周,该公司没有提到Knights Hill,Knights Mill是否是换了名字的Knights Hill,或是Knights Mill的制作工艺如何都不得而知。考虑到Knights Mill将于2017年问世,它应该不是Knights Hill,因为英特尔不可能这么早就制作完成10nm的芯片。

Knight Mil,可以用作主处理器的深度学习加速器

英特尔为该处理器增加了他们称之为“可变精度”(variable precision)的支持。但是,Intel并没有公布太多细节,具体的性能等级也未知。但使用低精度模式一直是以机器学习为重点的处理器的性能发展的主要因素。所以这很可能意味着,英特尔将会把FP16和其他低精度模式加入其中,而目前的Knights Landing就没有。(机器学习一般不需要高精度,这些较低的精度模式可能会大幅增加处理器的吞吐量,而且,少量的操作可以被压缩成一个SIMD。)

英特尔最终的目标是让Xeon Phi处理器表现得更好,这能降低大型复杂数据集的训练时间。同时,Knights Mill的内存也有所改变,英特尔称其是“灵活、高容量的内存”。

有了Knights Mill,英特尔终于能与Nvidia的GPU在机器学习的地位抗衡了。谷歌也开发了自己的TPU,与GPU一起用于机器学习。但是,Knights Mill与其竞争者之间是不同的。而谷歌的TPU和Nvidia的GPU都是辅助处理器,必须和CPU一起工作。

英特尔介绍,Knights Mill像Knights Landing一样,能充当主处理器。因此,我们可以期待,英特尔肯定会夸赞Knights Mill不需要单独的主机处理器和辅助处理器,以及Knights Mill可以直接连接到RAM系统中。这一点,再加上GPU架构和Knights Mill之间的性能差异,无疑将成为两家公司之间的经常性冲突。

英特尔公司副总裁Jason Waxman在接受采访时说,Knights Mill的目的是能快速计算,并根据概率和联系(probabilities and associations)做决策。其设计也将为计算带来更多的浮点性能,这对机器学习很重要。Waxman表示,英特尔正在快速推进AI战略,Knights Mill就是一个飞跃。

许多机器学习模型都在数据中心使用。除了其自主研发的软件堆栈,英特尔还可以使Xeon Phi兼容不同的机器学习模型,比如Caffe和TensorFlow。

英特尔表示愿意与其他公司合作。Waxman说,英特尔和百度正在利用Xeon Phi平台研究 “Deep Speech”语音识别技术。

迎接摩尔定律的终结

几十年来,芯片制造商在如期成倍提高芯片性能方面一直做得很出色。这些期限是由摩尔定律决定的,早在上世纪60年代就成型了。但是,随着我们对更小、更快、更高效的设备的需求激增,许多人都预测摩尔定律的时代可能要终结了。

就在上个月,国际半导体技术蓝图(ITRS)——包括芯片巨头英特尔和三星在内——发布了一份报告称,晶体管的尺寸将在2021年停止缩小。这些公司认为,到那时,继续缩小晶体管的尺寸在经济上将行不通。

虽然传统认为摩尔定律的终结是一个坏消息,但是它也会带来好处,即推动人工智能的崛起。可以说,摩尔定律的终结让硬件设计从人工机器智能(一种自上而下的人类工程学方法)跨越到自然机器智能(一种自下而上的自我改善方法)。

随着人工智能不再从明确的程序设计中产生,工程师们正在着力构建自主发展的系统,如深度学习——一种从生物系统建模的人工智能技术。各大公司正依赖于深度学习神经网络——模拟大脑神经元处理信息的算法。然而,AI工程师面临着一个挑战——深度学习所需的处理能力远远超出了现在消费级芯片的能力。

2012年,谷歌的神经网络教会自己识别出猫,而该系统需要的计算能力需要1000台不同机器上的16000个处理器才能满足。最近,AI研究人员已经转向GPU的处理能力。

GPU的好处是,它允许更多的并行计算。并行计算时,计算工作负载被同时划分到多个处理器。因为数据处理任务被分成多个小块,计算机可以将工作负载分配到各个处理单元。这种切分处理的方法对AI的发展至关重要。

“高端计算将会取决于一个芯片上能进行多大的并行计算,”深度学习芯片研发公司Nervana Systems的CEO NaveenRao说。Nervana Systems 最近刚被英特尔纳入麾下。

“我们的芯片就是摩尔定律终结的产物,”Rao说。

Rao的芯片设计将图形卡的并行计算融入到硬件中,舍弃了缓存这种不必要的功能。该芯片处理数据非常快,同时能利用更多的可用计算能力。据Rao介绍,该芯片能够运行深度学习算法,运行消耗的功率更少,而运行的量更大。

实际上,摩尔定律的终结早已不是新闻。早在2005年,工程师们就已经达到"登纳德缩放比例定律"(Dennard scaling)的极限了。也就是说,芯片继续在缩小,但是却开始漏电和过热。这就迫使芯片制造商制造多核CPU,而不是继续缩小芯片尺寸。这种芯片热积聚问题正是像Nervana System这样的芯片设计公司承诺要解决的问题。

收购 Nervana Systems,标志着英特尔豪赌人工智能将成为企业数据中心的关键。

英特尔副总裁 Jason Waxman 表示,“总会有下一个浪潮。我深信这不仅是下一个浪潮,而且还将是让上一波浪潮相形见绌的浪潮。”

用户的注意力已经开始捕捉下一波浪潮而变化,英特尔在人工智能和深度学习等业务方面仍表现不足,但这些业务正在改进。



上一篇 下一篇