人工智能芯片热度渐升,IP授权才是最佳出路?
人工智能加速,人工智能专用芯片是未来趋势
深度学习算法是实现人工智能技术和应用的核心,其在运行过程中需要对海量的数据进行运算处理——用已有的样本数据去训练人工神经网络、用训练好的人工神经网络去运算其他数据。对于传统计算架构而言,这将是一个极大的挑战。
面对深度学习算法这一计算新需求,GPU(图形处理器)、FPGA(可编程门阵列)、ASIC(专用集成电路)等成为了人工智能芯片领域的“被追捧者”。比如GPU,相比于CPU,其具有高并行结构,拥有更多的ALU(Arithmetic Logic Unit,逻辑运算单元)用于数据处理,适合对密集型数据进行并行处理。
值得我们注意的事,不管是让英伟达一举闻名的GPU,抑或是当前与GPU不分伯仲的FPGA,在属性上,它们都只能算是人工智能通用芯片。相比于一开始就是“私人订制”的ASIC,在深度学习算法的运行上,GPU和FPGA或多或少都有着一些局限:
GPU局限:GPU能够游刃有余的训练人工神经网络,但在输出应用时,它一次只能处理一张图像;相比于FPGA的灵活,GPU硬件结构固定,不具备可调整性;在实现相同性能的功耗上,GPU远大于FPGA以及ASIC。
FPGA局限:为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力都远远低于GPU中的ALU模块;在深度学习算法的运行速度和功耗上,FPGA表现的都不如ASIC;FPGA价格较为昂贵,在某些情况下甚至会高于ASIC。
不可否认,对于当前人工智能的发展,GPU和FPGA都做出了不小的贡献,但是从未来发展趋势来看,人工智能专用芯片才是未来的核心。
从上面的一些比较我们可以看出,在功耗和速度上,GPU、FPGA与ASIC之间还是有着一定差距的。
针对人工智能芯片的通用与专用的区别,地平线机器人芯片专家马凤翔称,相比于通用芯片,专用芯片是为特定场景而定制的,具备低功耗、低成本、高性能的优势。再通俗一点讲,就如寒武纪创始人之一的陈云霁所举出的例子,普通的处理器就好比“瑞士军刀”,虽然通用,但不专业,造成浪费,但是做菜的时候,还是菜刀得心应手,而专业的深度学习处理器就是这把更高效、更快捷的“菜刀”。
与此同时,不仅仅是性能的要求,随着人工智能技术的发展,其应用范围也将进一步扩大。未来,自动驾驶、机器人、智能家居等等终将充斥我们的生活,这其中所隐藏的将是一个无可估量的市场需求。届时,不管是所需要处理的数据,抑或是运算速度,与现在相比都将不是一个量级,若想做的更好,就只能向人工智能专用芯片靠拢。

最新活动更多
-
3月27日立即报名>> 【工程师系列】汽车电子技术在线大会
-
精彩回顾立即查看>> 【在线会议】汽车腐蚀及防护的多物理场仿真
-
精彩回顾立即查看>> 【在线会议】汽车检测的最佳选择看这里
-
精彩回顾立即查看>> 2024工程师系列—工业电子技术在线会议
-
精彩回顾立即查看>> 【线下论坛】华邦电子与莱迪思联合技术论坛
-
精彩回顾立即查看>> 【线下论坛】华邦电子与恩智浦联合技术论坛
推荐专题
- 1 七彩虹隐星P16 Pro首发评测
- 2 NVIDIA RTX 5060 Ti首发评测:8GB疯狂爆显存 16GB正好
- 3 完全的碾压性优势!锐龙9 9950X3D网游性能测试
- 4 索泰RTX 5070 XGAMING OC显卡评测
- 5 Intel酷睿Ultra 285H体验DeepSeek 14B模型
- 6 立讯精密得扛住苹果这波压力
- 7 联想卖爆了,但跟AI没啥关系
- 8 微星RTX 5060 Ti 16GB硬派师2X显卡评测
- 9 DLSS 4小钢炮:微星GeForce RTX 5060 Ti 16G INSPIRE 2X首发评测
- 10 索泰RTX 5070 Ti天启显卡评测:启世之环再进化 豪华八热管旗舰级体验
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论