神经处理单元(NPU)在消费设备中的崛起

神经处理单元(NPU)在消费设备中的崛起

作者
Vera Petrovich
4 分钟阅读

神经处理单元(NPU)在消费设备中的崛起

科技行业正热议“NPU”(神经处理单元),这是一种专为处理人工智能任务而设计,不增加CPU或GPU负担的组件。这些并行处理机器学习算法的NPU,已成为新款PC和智能手机的关键卖点。例如,微软基于ARM的新款Copilot+ PC,搭载高通骁龙芯片,配备45 TOPS(每秒万亿次操作)的NPU,承诺增强设备上的AI功能。尽管备受瞩目,但能充分利用这些能力的实际应用仍然稀少,大多数演示仅限于Zoom背景模糊或AI音乐生成等功能。挑战在于开发能有效利用NPU力量的软件,这可能从基于云的AI转向更高效的设备上处理。

关键要点

  • NPU因AI热潮受到关注:随着科技公司努力阐明NPU的好处,焦点集中在AI能力上。
  • 微软的新ARM架构PC:采用高通骁龙X Elite和X Plus处理器,集成45 TOPS NPU,实现设备上的AI。
  • 英特尔Core Ultra笔记本上的有限AI功能:仅微软的Copilot+ PC能使用如Recall等AI功能。
  • 自2017年起手机和PC中的NPU:由苹果、谷歌等先驱,NPU多年来增强了AI能力。
  • AI应用落后于硬件能力:当前AI应用的范围未能充分利用NPU能力,缺乏推动需求的杀手级应用。

分析

尽管神经处理单元(NPU)在PC和智能手机等消费设备中具有先进能力,但面临软件开发缺口。像微软和高通这样的组织,拥有高性能NPU,尚未看到广泛的应用集成,限制用户体验于基本AI功能。这种未充分利用可能推迟从基于云的AI向设备上处理的转变,影响科技公司的收入和市场定位。随着时间的推移,更复杂的AI应用的开发可能改变用户交互并推动对配备NPU设备的需求,可能重塑科技行业的竞争格局。

你知道吗?

  • 神经处理单元(NPU):一种专门硬件组件,设计用于通过并行处理算法加速机器学习和AI任务,减少CPU和GPU的计算负荷。NPU针对神经网络中常见的矩阵和向量计算进行优化,提高设备上AI应用的性能和效率。
  • TOPS(每秒万亿次操作):衡量每秒万亿次操作的计算吞吐量,指示NPU的处理能力。更高的TOPS评级表明能处理更复杂的AI和机器学习任务,可能实现更复杂的设备上AI功能,无需依赖基于云的处理。
  • 基于ARM的Copilot+ PC:微软开发的一系列个人电脑,采用ARM架构,特别配备高通骁龙芯片和高效能NPU。这些PC旨在利用设备上的AI能力,提供如视频通话中增强背景模糊和AI驱动的音乐生成等功能,旨在提供无缝且高效的用户体验。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯