侵权投诉
技术:
GPU/CPU 传感器 基础元器件 网络通信 显示 交互技术 电源管理 材料 操作系统 APP 云技术 大数据 人工智能 制造 其它
应用:
可穿戴设备 智能家居 VR/AR 机器人 无人机 手机数码 汽车 平衡车/自行车 医疗健康 运动设备 美颜塑身 早教/玩具 安防监控 智能照明 其它
当前位置:

OFweek智能硬件网

人工智能

正文

英特尔的人工智能进击,以产业“马达”姿态应对下一轮芯片大战

导读: 实现人工智能本质是模仿人类进行感知、决策的行为,所以电脑需要处理巨大量的数据,然而现阶段的人工智能发展遇到的一个主要瓶颈,就是人类现有的芯片计算技术和人工智能希望模仿的人脑计算方式存在着巨大差异。

人们都乐观地相信人工智能可能给世界带来的变革,但在这波技术浪潮中,能够扮演“马达”作用的企业还屈指可数。

今年3月24日,英特尔总部宣布将组建了一个人工智能部门,名为AIPG(Artificial Intelligence Products Group),由英特尔此前收购的人工智能公司Nervana CEO Naveen Rao统领。英特尔中国区总裁杨旭向钛媒体介绍,“人工智能事业部主要做三个方向:计算能力储备;建立深度产业合作;具体领域实现突破。这个事业部会涉及英特尔的许多产品部门,最关键的是统筹资源专注去做人工智能这件事。”

这是继去年11月成立自动驾驶事业部之后,英特尔再次为某个领域设立独立的事业部,其战略意义可见一斑。

通常来讲,人工智能分三层,最底层是芯片、计算、云等服务层,属于整个产业的基础设施;中间是核心技术层,比如深度学习、计算机视觉,提供某个领域的通用算法;最后是应用层,也就是我们看到的无人驾驶、机器人等各种具备人工智能形态的产品。

AI应用百花齐放的时代还没有到来,但说到底,它的繁荣并非一日之功,也绝不仅仅是AlphaGo下围棋赢过人类那么简单,人工智能不同于以往任何一场技术革命,它对芯片、算法、计算能力——这些像水和电一般的基础设施都提出了截然不同的要求。

数据洪流推动芯片革命

近20年来芯片工艺制程的进化,按照摩尔定律,每隔18-24个月每硅芯片性能便会提升一倍的规律,从90年代的台式计算机到现在的人手一部智能移动设备,单位面积计算力已经有了15000倍的增长。

如果你对计算力的概念模糊,可以从数据的角度来感受一下。

在上世纪电脑诞生初期,一台PC的内存还以KB为单位,而现在智能手机随便拍一张照片就是几MB,拍一段高清视频能达到几个GB,数据的洪流正在以史无前例的速度向我们袭来,人工智能产业爆发的基础已然具备。

英特尔研究院院长宋继强预测称,“预计到2020年,一个互联网用户每天将产生1.5GB的数据,每台自动驾驶汽车每天将生成超过4,000GB的数据,人工智能方面需要的计算力将增长12倍,而这12倍的计算力会给我们带来完全不一样的世界。”

但是需要注意的是,摩尔定律并非一条普适的自然科学性质定律,而是英特尔早期创始人戈登摩尔根据经验的一种观察预言,因为大体符合实际趋势,所以几十年来一直被用于预测半导体行业的未来。

进入到人工智能时代,越来越多人开始担心摩尔定律的极限,以及这种指数级的增长是否能够永远持续,甚至这个命题伴随着芯片产业的发展已经存在了很长时间,也许谁都无法给出明确的答案,但可以肯定是,技术的难题(包括半导体工艺的演进、物理学量子效应和光刻精度尚未突破)确实正在阻碍摩尔定律的速度。

底层基础技术究竟是什么?

在刚刚落幕的Emtech Digital人工智能峰上,一位名叫Gary Marcus的人工智能领域著名研究者、认知科学家给当下火热的人工智能行业破了一盆冷水,他认为“对机器来说识别并不等于理解,人工智能研究在很多领域正停滞不前”,此言并非毫无根据。

实现人工智能本质是模仿人类进行感知、决策的行为,电脑需要处理巨大量的数据,然而现阶段的人工智能发展遇到的一个主要瓶颈,就是人类现有的芯片计算技术(以CPU为主)和人工智能希望模仿的人脑计算方式(深度神经网络)存在着巨大差异。

CPU的工作过程类似工厂流水线作业,即按部就班去做一件事,每个流程都存在着很强的关联性,只有完成这个步骤才能进行下一步,我们通常听到的双核、四核、八核CPU都遵循这个逻辑,即便是英特尔推出256核CPU,也只是同时在处理256件事情而已。

人脑的计算方式比CPU高明很多,大脑有几百亿个神经元,这几百亿个神经元全部都是并发活动,如果把每个神经元比作一个计算单位,人脑相当于几百亿个计算单元在同步进行着不一样的事情,也就是利用我们后来经常听到的深度学习神经网络,这种方式与目前依靠CPU流水线作业的计算方式大相径庭,孰优孰劣一目了然。

上面所说的这种异构计算目前又被分为了几个主流的结构:CPU+GPU、CPU+FPGA、CPU+ASIC。

收购Nervana,占领深度学习高地

2016年8月,英特尔花费4亿美元收购了Nervana这家初创公司,Nervana由3名神经科学家于两年前创立,创始团队此前曾供职于高通神经网络部门,在高通任职期间,他们一直在研究的课题就是——如何才能让计算机的性能和效率模拟人脑。

Nervana的创立的初衷也由此而来,公司最早的业务是依靠出售深度学习为基础的硬件产品,后来通过云计算服务提供深度学习软件,它被人工智能研发人员广泛用于开发及部署神经网络,由于Nervana从事的业务方向相对专注,再加上创始团队均为研发出身,创立不久的Nervana在业界有着举足轻重的地位。

和前几天斥资153亿美金收购自动驾驶领域公司Mobileye相比,4亿美金对于英特尔这个级别体量的公司来说似乎有些不值一提,即便是花钱买个保险,性价比也是极高的,况且Nervana通过两年多的发展已经建立了自己的在深度学习领域的技术壁垒。

对像英特尔这样的芯片制造商而言,Nervana最诱人的地方在于——这家公司一直在努力将深度学习算法嵌入到计算芯片之中,而不是简单地打造能够在大量图形处理器上运行的软件,这个逻辑和英特尔发力人工智能芯片的思路不谋而合。

Nervana CEO Naveen Rao在接受媒体采访时表示,“英特尔CPU是通用处理器,可以处理许多不同的工作,但它并没有专门针对人工智能进行优化。我们会在英特尔其他所有产品线中增加功能,使它们针对人工智能进行更多优化。”

收购Nervana可以加大英特尔在人工智能领域芯片和算法的建设能力,这是其产品本身之于英特尔的吸引力,另外一个层面,很大程度上是为了抵御来自英伟达(Nvdia)的威胁,如果Nervana被Nvdia收入囊中,如今完全会是另外一番局面。

Nvdia的主战场在GPU领域,GPU最关键的性能是并行计算能力,由于受到人工智能概念的影响,2016整个财年Nvdia美股的全年涨幅达到了惊人的224%,是当之无愧的明星公司。

今年,英特尔推出了经过Nervana优化的至强处理器+Lake Crest组合方案,据称这款芯片在同样的能耗水平上,相对于目前的顶级GPU在运行神经网络任务时会有更强的性能,它帮助英特尔在异构计算领域中实现了卡位,毕竟“CPU+GPU”是目前最主流的计算结构,当初的AlphaGo就用了1920个CPU加上280个GPU的组合。

Altera、Movidius组合双保险

GPU用于深度学习的效率要高于CPU,但是其设计之初是为了图形计算并非人工智能计算,因此很多人开始思考能不能为人工智能设计一个专门的计算单元,于是有了FPGA、ASIC纷纷各领风骚的态势,以下分别来说。

FPGA全称为可编辑门阵列(Field Programmable Gate Array),其基本原理是在FPGA芯片内集成大量的数字电路基本门电路以及存储器,开发者通过烧入FPGA配置文件重新定义这些门电路以及存储器之间的连线,简单讲是一种可重构的芯片体系结构,再通俗一点就是可以像手机那样“刷机”。

根据需要,开发者可以把同一个FPGA配置成不同场景下使用的计算芯片,微控制器MCU、音频编解码器、适用于深度学习的处理器架构等等,FPGA属于半定制的芯片版本,比大规模的单个定制部件的成本低得多且具备更高的灵活性,一块FPGA开发板售价通常只有1000美金。

目前FPGA领域的大玩家主要有两个,Xilinx和Altera,其中Altera已经被英特尔以167亿美元的天价收至麾下。在可编辑逻辑领域的市场份额评估中,英特尔预估Xilinx占有49%,Altera占有中的39%,其他供应商分则瓜余下的12%。

另外一种计算结构ASIC(Application Specific Integrated Circuit),是专为人工智能设计的集成电路芯片,可以理解为FPGA的定制版本,如果专门为了深度学习去做芯片显然拥有更强的针对性,一旦规模化量产成本将会大范围降低。

不同于FPGA的灵活性,ASIC结构的芯片一旦设计出来就很难更改,其设计研发周期要远大于FPGA,上市速度缓慢,用最新的工艺制造ASIC芯片单次研发成本动辄几百上千万美元,风险也高于FPGA的解决方案,基本上相当于一锤子买卖,没赌对就赔了。

即使九死一生也要奋力一搏,更何况是在赌一个大方向很明确的未来。

为此,英特尔于2016年9月份收购了爱尔兰芯片公司Movidius,这家公司目前成立将近10年,主要产品是自主研制的低功耗视觉处理器:VPU(Vision Processing Unit),为谷歌Tango平板电脑和大疆无人机等产品都提供过视觉解决方案。

被英特尔收入囊中的Movidius被完全收购已经与英特尔的原有的RealSense实感技术进行整合,探索计算机视觉方面的芯片方案。

FPGA和ASIC这两种方式在实现深度学习加速器方面各有所长,在一定程度上存在替代关系,FPGA的可配置性更适合企业、军工等应用,而ASIC的高性能和低成本则适合消费电子领域。

“对于复杂的场景其实是希望使用一个通用的CPU,看你的负载要求可以使用酷睿系列的CPU,或者至强系列CPU去搭配硬件加速模块,硬件加速模块可以选择FPGA还是Nervana,这是看具体的应用具体分析”,英特尔研究院院长宋继强表示。

准备所有可能,应对芯片大战

对于英特尔来说,寻找处理下一代计算任务的芯片架构迫在眉睫,英特尔在这场芯片大战中,几乎准备了所有可能存在的处理器架构来应对挑战,群雄逐鹿的精彩对决已经拉开了帷幕。

与我们熟悉的互联网行业不同,芯片产业的变化周期要长很多,90年代的个人PC是芯片厂商主战场,随着智能手机爆发开始转向移动端也就是智能手机,尽管此役高通和ARM大败英特尔,但在PC领域始终没有任何人能撼动的英特尔的垄断地位,长达25年的时间几乎碾压对手。

如今的人工智能时代无疑也将迎来一个芯片行业的拐点,只是曾经强者恒强的规律可能并不适用,在这个新旧时代交替的节点,各种架构的计算处理器正处在混合过渡的阶段,尚未形成一家独大的局面。

声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: