英特尔的总经理Diane Bryant说“人工智能仍然像一个嗷嗷待哺的婴儿”

图普科技 2016-08-25 19:41 工具软件 来源:创头条 查看原文

ca3000343bb1363a996                       英特尔数据中心的执行副总裁和总经理Diane Bryant(图像来自: Dean Takahashi)

自十九世纪五十年代被首次定义以来,人工智能的历史可以追溯到六十多年以前。但是在计算机芯片巨头英特尔看来,岁月丝毫没有使这个领域变得古老和过时,事实上,对芯片制造商们来说,人工智能的兴起是一个巨大的机遇。

上周,英特尔作出了一个非常大胆的举动,他们收购了Nervana——一个在深度学习领域上非常卓越的创业公司。深度学习是机器学习里非常接近人工智能的一个分支,这个领域涉及到用大量的数据训练人造神经网络,让神经网络能够在新的数据上作出推理和演算。今天,英特尔发布了他们的新一代Xeon Phi服务器芯片,并强调了他们的新产品有能力去处理人工智能所需的计算量。近年来,Xeon Phi芯片频频发力,剑指高性能计算的市场。

显然,在以英伟达(Nvidia)为首的显卡制造商推动起来的人工智能浪潮下,英特尔的上升势头非常迅猛。今天,在三藩市的英特尔开发者论坛上,

英特尔数据中心的执行副总裁和总经理Diane Bryant在接受VentureBeat(美国著名科技媒体)采访时说:“今天人工智能仍然像一个嗷嗷待哺的婴儿,学术圈正在进行孜孜不倦的探索和研究。所以,我认为这个领域依然有数不尽的发展潜力。”

换句话说,英特尔认为他们在人工智能的领域上并没有落后太多。而在深度学习的王国里,英伟达被认为是获取能安装在服务器上的图形处理单元(GPU)的专属军火商——很多大型的互联网公司,如百度,Facebook和Google,和大型的云服务供应商,如亚马逊云,IBM的SoftLayer和微软Azure,他们都正依赖于英伟达的GPU。

Bryant说:“显然,什么硬件结构能够最好地支持人工智能对我们来说还是一个值得深究的问题。”她向我们介绍了一个英特尔去年做的关于对用于机器学习/深度学习服务器使用的调研的结果。

传统机器学习与深度学习

Bryant说,在英特尔调研的所有这些服务器里面,7%的服务器被用于深度学习,而有95%被用于传统的机器学习。她还指出,所有被用于深度学习的服务器都在使用标准的英特尔Xeon芯片。但是,在处理深度学习的服务器里,只有2.5%的服务器是基于Xeon的技术,并配置了独立的GPU的,而有另外2.5%使用了IBM的Power或甲骨文(Oracle)的SPARC服务器。

“你可以发现,在我们调研的所有服务器里面,真正在使用GPU加速的只有寥寥无几。”Bryant说,她在1985年加入英特尔,并曾经是他们的资讯总监,“在所有被用于机器学习或深度学习的服务器中,绝大部分被用于前者,而在去年,为深度学习部署的服务器数量只占总量的0.1%。”

如果调研的数据是正确的话,那么英特尔确实还没在人工智能的浪潮里被抛下。也仅仅是在过去的五年,研究人员发现在GPU上训练深度学习系统是一个成本低,速度快的方法。所以,或许对英特尔来说,只要加快步伐,他们依然能够跟上潮流。

“深度学习解决方案的研究和开发显然还是一个刚成雏形的小市场,但我们相信,终有一天,这个需求会急剧增大。”Bryant说。而Xeon Phi系列芯片将会是英特尔在这个市场的主心骨。

回到未来

在十九世纪八十年代,当很多创业公司正在尝试将人工智能应用到实际场景时,英特尔已经在开发人工智能的产品了。但是,这些产品从来没有走出过英特尔的实验室,Bryant说:“我们只是把人工智能发明得太早,然后停止对它的研究了。”

在二十世纪初,英特尔有一个代号为Larrabee的项目。这个项目意在开发独立的图像处理加速器——正是那种在近年来使英伟达在深度学习领域里大受欢迎的硬件设备。但是Larrabee的GPU从来没有被正式投入市场,公司改变了发展的方向,专注生产用于个人电脑上的集成显卡。而在2012年,英特尔把Larrabee改名成了现在的Xeon Phi,Bryant说道。

而现在,Google又制造出了一种新型的设备,它叫做张量处理单元(Tensor Processing Units)。Google表示,这种新设备能够为Tensorflow(Google开发的深度学习框架)等需要巨大运算量的服务提供“领先的加速能力”。“我觉得这实在是太棒了,”Bryant说,“TPU必然会提升深度学习模型演算阶段的速度。”

同样令人兴奋的是,谷歌正在开始进入深度学习硬件加速的领域——很有可能跟台积电(TSMC,台湾著名的半导体制造公司)合作。Bryant说道:“(谷歌跟台积电合作制造的这些设备)将会是被细致地微调和整合的,和英特尔所提供的大部分服务器都适用的芯片不一样。”

“一个庞大的云平台能够在他们的数据中心里提供数以千百计的服务器,”Bryant说,“你会希望这些服务器都有相同的配置,比如说,因为没有硬件加速,你不能在其中一个服务器上运行Tensorflow,所以你要把你的代码迁移到另一个配置了合适硬件的服务器(如GPU)上运行,这是非常不好的。各个服务器的一致性对云服务提供者是非常重要的,所以我们的工作就是研究在Tensorflow的运行过程中,究竟哪部分被硬件加速了,并把它整合到我们的Xeon处理器上。”

与此同时,英特尔也会逐步将其在Nervana收购中获得的技术整合到他们的新产品中。他们希望进一步推动这些新产品的研发和制造,再次成为业界的标杆。“我们仍有机会成为人工智能硬件加速的巨头,这扇窗还没有对我们关闭。”Bryant说道。

为您推荐: