根据知名苹果分析员郭明錤的最新报告指出,搭载A16芯片的iPhone 15并不支持Apple Intelligence,但使用M1芯片的设备却可以支持。 这一现象表明,能否支持Apple Intelligence的关键在于DRAM大小,而非AI算力(TOPS)。

M1 与 A16 的比较
M1 芯片的 AI 算力约为 11 TOPS,低于 A16 的 17 TOPS。 然而,A16的DRAM为6GB,低于M1的8GB。 因此,目前的Apple Intelligence装置端AI LLM对DRAM的需求约为2GB或更低。

DRAM需求的验证
DRAM需求可以通过另一种方式来验证。 Apple Intelligence 采用设备端 3B LLM(应为 FP16,M1 的 NPU/ANE 对 FP16 有很好的支持),经过压缩后(采用 2-bit 与 4-bit 的混合配置),随时需要预留约 0.7-1.5GB DRAM 来运作 Apple Intelligence 的设备端 LLM。
进一步的分析与结论
若要通过AI强化既有装置端应用,至少需部署装置端3B LLM,并以此为基础再根据压缩方式决定DRAM规格。 微软认为 AI PC 的关键规格是 40 TOPS 算力,但对苹果而言,搭配云端 AI(Private Cloud Compute),设备端有 11 TOPS 的算力已足够开始提供设备端 AI 应用。
Apple 的销售优势
消费者若欲购买微软的 AI PC 可能会感到困惑,因为还需要自行计算是否达到 40 TOPS。 而苹果则是直接告诉消费者哪些机型可以支持Apple Intelligence。 无论设备端 AI 应用能否满足消费者需求,Apple 在销售上一开始就具有明显优势。

未来展望与市场影响
未来Apple Intelligence的装置端AI肯定也会升级(最有可能升级到7B LLM),届时需要更大DRAM才能运作。 Apple 是否会以此作为高低阶机型的产品区隔策略值得观察。 用户体验是否如苹果宣称的那么美好仍需观察,因为在宣传上曾经有过言过其实的错误案例。
竞争对手与市场趋势
Samsung S24 的 AI 功能有限,微软的 AI PC 目前仍让消费者感到困惑。 但苹果成功定义了设备端AI,至少消费者已清楚知道Apple的AI设备功能丰富且有哪些卖点。 这会加速竞争对手的模仿与追赶,并进而带动装置端 AI 相关行业的快速成长。