让老机型用上新功能?厂商的“好心”可能露了怯

2026-04-08 · 移动终端 · 原创 · 桜小路 ルナ

过去我们总是称赞厂商给老机型更新新功能的做法,但这一次要提出质疑了


近日三星官方社区发布公告,明确表示正在推进系统更新,计划将Galaxy S26系列搭载的多项AI功能,逐步下放至Galaxy S25系列等老款旗舰机型中。

让老机型用上新功能?厂商的“好心”可能漏了怯

乍看之下,这似乎是三星“不忘老用户”的暖心操作,既延续了老机型的生命周期,也让未更换新机的用户能体验到新的AI功能。


但如果是关注手机相关技术、特别是AI底层逻辑的消费者,在看到这个消息后,或许反而会忍不住皱起眉头。因为这场看似普惠的功能下放,反而可能揭开了如今“AI手机”硬件规格与软件体验之间的龃龉。


云端还是端侧?这是手机AI功能的老问题


首先大家都知道,目前手机上的AI功能基本可以分成两类。


一类是纯粹基于云端算力实现的AI功能,比如很多机型都有的AI长焦增强、AI修图、智能文案帮写等功能。这些功能无需依赖手机本地的AI硬件(NPU),只用连接网络调用云端服务器的算力就能实现。

让老机型用上新功能?厂商的“好心”可能漏了怯

对于这类AI功能,其实无所谓“下不下放”。毕竟就算是最入门、没有本地AI算力的手机,只要能联网也能使用,这也是不少入门机敢于自称“AI手机”的核心原因。


但对于另外一类基于手机本地算力、端侧模型实现的“AI功能”来说,情况就完全不同了。这类功能的流畅度、处理精度完全依赖手机SoC中NPU(神经网络处理单元)的算力来支撑。

让老机型用上新功能?厂商的“好心”可能漏了怯

比如,三星Galaxy S26系列搭载的实时视频AI降噪,以及Galaxy S25系列就有的实时语音翻译等功能,就都需要NPU提供充足的算力,才能驱动安装在系统中的端侧大模型执行相关操作。如果这类强依赖硬件的AI功能能够被轻易“下放”,就反而未必是件好事了。


当硬件进步太大,“功能下放”就反而令人生疑


为什么这么说?查阅相关资料就不难发现,历史上确实有一些旗舰SoC在换代时,NPU的性能并没有出现显著增长。比如骁龙888与骁龙8 Gen1,前者NPU的算力约为26TOPS,后者的NPU算力为32TOPS,两者的区别确实不大。再比如骁龙8 Gen2与骁龙8 Gen3,一个48TOPS一个45TOPS,NPU峰值算力甚至还略有回落。


在这种情况下,厂商将新机的本地AI功能下放给老机型,技术上确实没难度,实操上也合情合理。


但Galaxy S26与S25系列所搭载的SoC,显然并不符合这一规律。官方公布的数据显示,第五代骁龙8至尊版的NPU算力高达100TOPS,支持INT2与FP8多精度计算,端侧大模型推理速度可达220Tokens/秒。

让老机型用上新功能?厂商的“好心”可能漏了怯

相比之下,骁龙8至尊版的NPU峰值算力为80TOPS,看似只慢了20%,但问题在于它并不支持INT2精度,所以在两者都“充分优化”的前提下,实际推理速度的差距就会被显著拉开。甚至这还没考虑两款SoC在片上缓存、内存带宽上的差异。


如此一来,如果Galaxy S26系列里那些依赖高算力的本地AI功能(比如支持毫秒级响应的端侧大模型交互、4K视频实时AI修复等),可以被“下放”给NPU规格显著差了一截的前代机型,就不免会让我们产生疑问。

让老机型用上新功能?厂商的“好心”可能漏了怯

到底是三星在Galaxy S26系列上对第五代骁龙8至尊版的硬件开发程度不足,AI功能并未充分“吃满”这个平台的NPU潜力,导致低算力的旧机型也能勉强运行。还是说在这个下放的过程中,相关端侧AI模型会被大幅精简。比如通过量化压缩、裁剪模型参数等方式降低算力需求,看似是“同款功能”,实际体验和处理精度大打折扣,根本不是真正意义上的功能复刻呢?


“端侧AI”是核心竞争力,厂商理应更加谨慎


要知道对于如今的消费者而言,云端AI潜在的隐私问题早就不是什么“传言”,而是摆在眼前的现实问题。在这样的情况下,优化得当,充分吃满硬件潜力的“端侧AI”,显然才是能够体现各厂商真正实力的关键所在。

让老机型用上新功能?厂商的“好心”可能漏了怯

既然如此,当看似“专属”于新硬件的端侧AI功能却能够被轻易“下放”时,就反而不仅可能让买了新机的消费者感到被冒犯,甚至也可能令人怀疑厂商的技术实力。


从结果来说,这次看似普惠的功能下放,究竟是厂商的诚意之举,还是一场兼顾口碑与成本的营销话术,或许还要等相关功能正式推送后,才能从实际体验中找到答案。