人工智能芯片热度渐升,IP授权才是最佳出路?
人工智能加速,人工智能专用芯片是未来趋势
深度学习算法是实现人工智能技术和应用的核心,其在运行过程中需要对海量的数据进行运算处理——用已有的样本数据去训练人工神经网络、用训练好的人工神经网络去运算其他数据。对于传统计算架构而言,这将是一个极大的挑战。
面对深度学习算法这一计算新需求,GPU(图形处理器)、FPGA(可编程门阵列)、ASIC(专用集成电路)等成为了人工智能芯片领域的“被追捧者”。比如GPU,相比于CPU,其具有高并行结构,拥有更多的ALU(Arithmetic Logic Unit,逻辑运算单元)用于数据处理,适合对密集型数据进行并行处理。
值得我们注意的事,不管是让英伟达一举闻名的GPU,抑或是当前与GPU不分伯仲的FPGA,在属性上,它们都只能算是人工智能通用芯片。相比于一开始就是“私人订制”的ASIC,在深度学习算法的运行上,GPU和FPGA或多或少都有着一些局限:
GPU局限:GPU能够游刃有余的训练人工神经网络,但在输出应用时,它一次只能处理一张图像;相比于FPGA的灵活,GPU硬件结构固定,不具备可调整性;在实现相同性能的功耗上,GPU远大于FPGA以及ASIC。
FPGA局限:为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力都远远低于GPU中的ALU模块;在深度学习算法的运行速度和功耗上,FPGA表现的都不如ASIC;FPGA价格较为昂贵,在某些情况下甚至会高于ASIC。
不可否认,对于当前人工智能的发展,GPU和FPGA都做出了不小的贡献,但是从未来发展趋势来看,人工智能专用芯片才是未来的核心。
从上面的一些比较我们可以看出,在功耗和速度上,GPU、FPGA与ASIC之间还是有着一定差距的。
针对人工智能芯片的通用与专用的区别,地平线机器人芯片专家马凤翔称,相比于通用芯片,专用芯片是为特定场景而定制的,具备低功耗、低成本、高性能的优势。再通俗一点讲,就如寒武纪创始人之一的陈云霁所举出的例子,普通的处理器就好比“瑞士军刀”,虽然通用,但不专业,造成浪费,但是做菜的时候,还是菜刀得心应手,而专业的深度学习处理器就是这把更高效、更快捷的“菜刀”。
与此同时,不仅仅是性能的要求,随着人工智能技术的发展,其应用范围也将进一步扩大。未来,自动驾驶、机器人、智能家居等等终将充斥我们的生活,这其中所隐藏的将是一个无可估量的市场需求。届时,不管是所需要处理的数据,抑或是运算速度,与现在相比都将不是一个量级,若想做的更好,就只能向人工智能专用芯片靠拢。
最新活动更多
-
11月22日立即报名>> 【线下论坛】华邦电子与莱迪思联合技术论坛
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
精彩回顾立即查看>> 【线下论坛】华邦电子与恩智浦联合技术论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
-
精彩回顾立即查看>> 【限时免费下载】TE暖通空调系统高效可靠的组件解决方案
-
精彩回顾立即查看>> 2024德州仪器嵌入式技术创新发展研讨会
推荐专题
- 1 格科微5000万像素产品再传佳讯 剑指中高端手机后主摄市场
- 2 Kvaser发布全新软件CanKing 7:便捷CAN总线诊断与分析!
- 3 小米15供应链谁是大赢家?市场高度关注这家企业
- 4 Intel酷睿Ultra 9 285K首发评测:游戏性能一言难尽
- 5 锐龙7 9800X3D首发评测:网游断崖式领先
- 6 国补加持!双11最值得入手的Mini Led电视来了!不买真亏大了
- 7 小米入局家用NAS市场!手机厂商要做NAS普及推手?
- 8 HUAWEI SOUND 用科技开创智慧音响新世代
- 9 工业加热技术创造烘焙奇迹:Kanthal AF加热元件以37.55秒创造世界最短披萨烘焙时间
- 10 瑞典Ionautics HiPSTER 25重磅新品! SiC晶体管引领HiPIMS高效镀膜新时代,镀膜效率显著提升
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论