中泰证券近日发布了《AI系列之NPU:专为端侧AI而生的神经网络加速器》研究报告,该报告深入探讨了神经网络处理单元(NPU)在端侧人工智能应用中的重要作用、发展历程以及市场前景。报告指出,随着人工智能技术的不断进步,NPU作为专门优化的神经网络计算架构,其在提升AI算法运行效率、降低功耗和成本方面展现出显著优势,尤其在智能手机、PC、智能驾驶等端侧AI领域扮演着越来越关键的角色。报告内容丰富,不仅梳理了NPU的技术演进路径,还对产业趋势、投资机会进行了详细分析,为投资者提供了宝贵的参考信息。
在信息技术飞速发展的今天,人工智能(AI)已成为推动社会进步的关键力量。AI技术的核心在于其强大的计算能力,而NPU(神经网络处理单元)正是专为端侧AI而生的神经网络加速器。NPU的出现,标志着AI计算从云端向端侧的转移,为AI技术的发展带来了新的机遇和挑战。
NPU与GPU定位不同,NPU专为端侧AI时代新需求而生。NPU是专用加速芯片,适用于乘法累加运算,显著提升AI模型运行效率。NPU的发展历程,是算力攀升和场景突破的历程。从早期的DSP架构奠基,到逐步集成标量、向量、张量加速单元,并引入Transformer支持,NPU的性能持续优化,应用场景不断拓展。
在智能手机领域,NPU的应用已经非常广泛。随着生成式AI技术的发展,智能手机的AI算力需求大幅提升。根据IDC预测,全球生成式AI智能手机的出货量在2023-2028的CAGR将达到78%,2028年出货量将增长至9.1亿部。这意味着,NPU在智能手机领域的应用将迎来爆发式增长。
在PC领域,NPU同样展现出巨大的潜力。随着大模型计算负载部分下沉至本地,个人大模型的需求日益增长,其普惠要求正契合PC端优势。据IDC预测,至28年预计AI PC渗透率98%,当年出货量达到2.67亿台。NPU在AI PC中的渗透率预计快速提升,到2028年,将仅有5.2%的PC不配备NPU,NPU在PC中的渗透率达到94.8%。
在汽车领域,随着智能驾驶技术的快速发展,对NPU的需求也在不断增长。全球/中国智能驾驶乘用车渗透率预计2028年达到88%/94%,销量在23-28年间CAGR 6.4%/6.9%。高通在2024年末发布的座舱与智驾芯片,应用了增强的Hexagon NPU,较此前一代AI算力有大幅提升。
除了智能手机、PC和汽车,NPU在机器人领域的应用也值得关注。机器人产业进入快速发展期,技术创新与市场需求共振驱动行业爆发。NPU在机器人使用广泛,有加速计算、降低系统功耗、实现实时交互和决策等优势。
NPU的发展,也带来了新的产业趋势。近存计算大趋势下,3D DRAM+NPU方案有望受益。存算一体是NPU打破计算瓶颈的主要方式,存算一体及混合精度是解决NPU在AI计算瓶颈的主要方式。近存计算和存内处理是重要方向,WOW 3D堆叠DRAM是AI低算力+超高宽带存储解决方案。
在NPU的发展过程中,海外大厂持续迭代推动端侧AI布局,国产厂商加速布局。高通、苹果、华为等大厂在NPU领域的布局,推动了NPU技术的快速发展。同时,国产厂商如瑞芯微、兆易创新、北京君正等也在加速布局NPU,卡位AIoT下游。
NPU的发展,不仅推动了AI技术的进步,也为相关产业带来了新的机遇。随着NPU技术的不断成熟,其在智能手机、PC、汽车、机器人等领域的应用将越来越广泛,为人们的生活带来更多便利。
这篇文章的灵感来自于《中泰电子AI系列之NPU:专为端侧AI而生的神经网络加速器》这份报告。除了这份报告,还有一些同类型的报告,也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。
以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。
【蝉鸣报告】每日更新最新硬核报告,覆盖产业报告、全球化、经济报告、趋势等全领域。