苹果(Apple)目前已经在开发全新一代Siri,主打以大型语言模型(LLM)为核心,实现更自然、更聪明且具备更复杂任务处理能力的AI语音助理,这次升级目标是让Siri从过去2012年手机助理全面改为成可媲美ChatGPT、Claude等现代AI聊天机器人的智能系统。

就目前 Siri 到底会有哪些改变? 底下就替大家整理关于苹果正在如何打造更强大 Siri 的所有已知信息。
造成苹果Siri落后真实背后关键原因
会造成Siri至今发展严重落后,主要在于原AI团队负责人John Giannandrea因错过Siri改版和整合AI时机点,造成苹果执行长库克相当不满,立即将Giannandrea移除Siri领导团队,改由Vision Pro团队主管Mike Rockwell接手,后续能够直接接向Federighi汇报。

同时苹果也面临AI人才流失压力,持续被Meta以高达2亿美元的配套挖角关键工程师,为了稳定内部军心,Cook与Federighi也在今年8月罕见召开内部员工大会,并强调AI是公司当前「最认真对待的项目」。
库克也会中强调苹果必须做这件事,而且苹果一定会做,这正是我们可以在 AI 领域大展身手,我们会投入所需的资源。
如想了解苹果AI内部发展为何严重落后,详见另一篇深入解析《苹果AI为何落后ChatGPT? 七年改造Siri内部关键事件主因全面看懂》。
第一代Siri:Apple Intelligence Siri
对于Siri转型计划并不顺利,苹果曾在2024年全球开发者大会(WWDC)展示搭载Apple Intelligence的智能Siri语音助理,并且又在iPhone 16发布会上强调Apple Intelligence Siri新功能。
原本苹果计划在iOS 18中导入Apple Intelligence部分升级版Siri功能,直到2025年3月,官方才通过外媒承认AppleIntelligence Siri功能将不会出现在iOS 18亮相,也让更多新版Siri功能全面延至2026年iOS 26才会推出。

Apple Intelligence Siri 算是一个过渡版本,虽然具备更高语意理解能力,但未达 AI 聊天机器人水平,主要具有底下三大功能:
- 个性化情境感知(Personal Context):Siri 可根据用户的邮件、消息、文件与照片等内容进行任务处理。 例如「找出 Eric 上周寄给我的文件」、「显示 Eric 提到溜冰的邮件」等。
- 屏幕内容感知(Onscreen Awareness):Siri 可辨识当前屏幕画面内容并执行相关指令,例如将短信中的地址加入联络人,或直接转发目前照片。
- 更深入的 App 整合:Siri 将能跨 App 完成任务,例如从一个 App 移动文件至另一个、照片后直接传送、分享预估抵达时间等。
第二代Siri:LLM Siri生成式AI
苹果软件工程主管Craig Federighi日前在iOS 26发表后的访谈中坦承,原本为新Siri打造的第一代架构过于受限,无法达到苹果预期标准,在2025年春季起,内部开发团队全面转向第二代LLM Siri架构,目标能实现与ChatGPT相同的能力。
不过在苹果原先尝试将原有旧Siri命令处理系统与 LLM 模型融合,但混合架构的结果并不理想,最终决定全面推翻重建,碍于时间压力和技术问题,也让 AI 团队士气低落。
Federighi 也向员工表示:「我们现在打造的是比原先预期更大幅度的 Siri 升级,这次的端到端改造已展现成效。」

自研或合作? 苹果传考虑引入外部 LLM 模型
市场传出,苹果原本开发中的自有 LLM 模型可能会被搁置,正积极测试 OpenAI(ChatGPT 开发商)与 Anthropic(Claude 开发商)的模型,两家公司也为此调整模型以兼容苹果的 Private Cloud Compute 架构。
虽然最终尚未定案,要是与OpenAI或Anthropic合作,优先采用外部模型,可让苹果有时间继续打造自家LLM,并提前推出类似ChatGPT的Siri语音助理功能。
目前苹果高层已确认新版Siri将在2026年推出,最快会在2026年第一季上线,要是属实有可能会随iOS 26.4推出,通常该本版都会带来重要的新功能。