人工智能芯片热度渐升,IP授权才是最佳出路?
人工智能加速,人工智能专用芯片是未来趋势
深度学习算法是实现人工智能技术和应用的核心,其在运行过程中需要对海量的数据进行运算处理——用已有的样本数据去训练人工神经网络、用训练好的人工神经网络去运算其他数据。对于传统计算架构而言,这将是一个极大的挑战。
面对深度学习算法这一计算新需求,GPU(图形处理器)、FPGA(可编程门阵列)、ASIC(专用集成电路)等成为了人工智能芯片领域的“被追捧者”。比如GPU,相比于CPU,其具有高并行结构,拥有更多的ALU(Arithmetic Logic Unit,逻辑运算单元)用于数据处理,适合对密集型数据进行并行处理。
值得我们注意的事,不管是让英伟达一举闻名的GPU,抑或是当前与GPU不分伯仲的FPGA,在属性上,它们都只能算是人工智能通用芯片。相比于一开始就是“私人订制”的ASIC,在深度学习算法的运行上,GPU和FPGA或多或少都有着一些局限:
GPU局限:GPU能够游刃有余的训练人工神经网络,但在输出应用时,它一次只能处理一张图像;相比于FPGA的灵活,GPU硬件结构固定,不具备可调整性;在实现相同性能的功耗上,GPU远大于FPGA以及ASIC。
FPGA局限:为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力都远远低于GPU中的ALU模块;在深度学习算法的运行速度和功耗上,FPGA表现的都不如ASIC;FPGA价格较为昂贵,在某些情况下甚至会高于ASIC。
不可否认,对于当前人工智能的发展,GPU和FPGA都做出了不小的贡献,但是从未来发展趋势来看,人工智能专用芯片才是未来的核心。
从上面的一些比较我们可以看出,在功耗和速度上,GPU、FPGA与ASIC之间还是有着一定差距的。
针对人工智能芯片的通用与专用的区别,地平线机器人芯片专家马凤翔称,相比于通用芯片,专用芯片是为特定场景而定制的,具备低功耗、低成本、高性能的优势。再通俗一点讲,就如寒武纪创始人之一的陈云霁所举出的例子,普通的处理器就好比“瑞士军刀”,虽然通用,但不专业,造成浪费,但是做菜的时候,还是菜刀得心应手,而专业的深度学习处理器就是这把更高效、更快捷的“菜刀”。
与此同时,不仅仅是性能的要求,随着人工智能技术的发展,其应用范围也将进一步扩大。未来,自动驾驶、机器人、智能家居等等终将充斥我们的生活,这其中所隐藏的将是一个无可估量的市场需求。届时,不管是所需要处理的数据,抑或是运算速度,与现在相比都将不是一个量级,若想做的更好,就只能向人工智能专用芯片靠拢。

最新活动更多
-
3月27日立即报名>> 【工程师系列】汽车电子技术在线大会
-
即日-3.28立即报名>>> 【在线会议】汽车检测的最佳选择看这里
-
即日-4.22立即报名>> 【在线会议】汽车腐蚀及防护的多物理场仿真
-
精彩回顾立即查看>> 2024工程师系列—工业电子技术在线会议
-
精彩回顾立即查看>> 【线下论坛】华邦电子与莱迪思联合技术论坛
-
精彩回顾立即查看>> 【线下论坛】华邦电子与恩智浦联合技术论坛
推荐专题
- 1 性能、价格全方位碾压RTX 4060!AMD RX 7650 GRE首发评测
- 2 AMD史上最强集显Radeon8060S首测
- 3 索泰RTX 5070 Ti AMP评测:300W烤机不到61度、性能赶超4080
- 4 RTX 5070 Ti首发评测:提升30% 完美追平RTX 4080
- 5 七彩虹iGame RTX 5080水神OC评测:360一体水冷 温度碾压风冷
- 6 650亿美元,Meta开始押注下一个硬件
- 7 七彩虹RTX 5070 Ti Vulcan OC评测:一键提速降温、磁吸太会玩
- 8 影驰GeForce RTX 5070 Ti魔刃显卡首发评测
- 9 2月27日发!小米新品一箩筐:人车家生态落地,高端化成了?
- 10 HD4850神迹重现!RX 9070 XT首发评测
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论