苹果测试 Siri 多指令识别:一句话说完所有需求

苹果正在为 Siri 研发一项基础但关键的能力升级——单句多指令识别。用户将可以在一句话中连续下达多个指令,Siri 自动拆解并逐一执行,无需分步操作或多次唤醒。

苹果测试 Siri 多指令识别:一句话说完所有需求

具体能力

目前 Siri 的交互模式是"一问一答",每个请求只能处理一个意图。升级之后,类似"设 15 分钟计时器并查天气"这样的复合请求,Siri 可以在单次对话中理解并完成。

这项改进的核心在于自然语言理解(NLU)层面的提升,需要系统准确识别一句话中的多个独立意图、确定执行顺序、并在不同系统服务之间协调调用。

发布时间线

多指令识别预计将在 WWDC 2026 上正式公布,随以下系统同步推出:

  • iOS 27
  • macOS 27
  • iPadOS 27

作为 Apple Intelligence 重塑 Siri 的重要组成部分,这项能力将与 Siri 的另一项升级同时落地——类似聊天机器人的联网信息汇总功能,使 Siri 能够抓取和整合网络信息回答用户问题。

部分新特性目前在苹果内部被标记为"预览版",可能不会在系统首发时全面开放,而是以 Beta 形式或分阶段逐步推出。

意义与挑战

多指令识别补的是 Siri 长期以来最被用户诟病的短板。在 ChatGPT、Google Gemini 等 AI 助手已经能够处理复杂多轮对话的背景下,Siri 的"一句话只能干一件事"显得尤为落后。

但多指令识别只是入门门槛。实际体验取决于两个关键指标:

  • 识别准确率——一句话中多个意图的边界是否清晰,复杂语句下是否会误拆或遗漏
  • 响应延迟——拆解多指令后,串行执行的等待时间是否在用户可接受范围内

这两个指标目前 Apple Intelligence 版 Siri 还没有充分验证,最终体验需要等实际产品落地后才能评判。

背景

Apple Intelligence 是苹果在 2024 年 WWDC 上宣布的 AI 战略框架,目标是全面重构 Siri 的底层能力,包括更自然的多轮对话、屏幕感知、跨应用操作等。多指令识别可以视为这一路线图上的一个基础节点,为后续更复杂的交互能力打地基。

相关推荐