返回

聊聊刚发布的 WWDC24 - Siri with Apple Intelligence

By Sean Chen, 2024年6月11日

wwdc24

苹果刚发布了最新的 Apple Intelligence,功能包括写作、语音转文字及总结、智能回复、写作工具、图片生成或表情符号生成等,而最重要的是,让 Siri 更接近真正的语音助手


在介绍前面几个工具时,乍看之下,就像苹果又再度发挥挤牙膏大法,介绍一些安卓早有的不痛不痒功能。


但当看到下一代的 Siri 时,才会又感受到苹果对于自身产品的强大设计和整合能力。


并非如外界猜测的纯粹使用 GPT-4o

从这次发布的 Keynote 和官网的信息来看,并不像外界原先猜测的纯粹使用 GPT-4o 作为 Apple Intelligence 的模型。从能使用的机种 A17 Pro 及 M 系列硬件来看,看起来这次苹果是在设备内放入了小语言模型或特定用途的图片生成模型。并同时使用其最新的 Private Cloud Compute 技术,在保障隐私的条件下,让 Apple Intelligence 或是 Siri 使用云端的大语言模型。


看起来这次的生成式语言模型是苹果针对手机内常用的情境,特化训练出的新模型。而跟 OpenAI 合作的 GPT-4o 模型,只有使用在更进阶的情境,例如:询问复杂逻辑问题等。这也能让 Siri 背后的 AI 更专注在提升“使用苹果产品的体验”,让这个模型更专注也更轻量化。混合不同的服务减轻了苹果在追赶 GenAI 的压力,也同时正面迎击微软 Copilot 在操作系统内直接整合 GenAI 聊天机器人功能。


在开发大语言模型的路上,苹果看起来目标不是在追逐各种 LLM Benchmark,而是回归到产品本身,让 LLM 服务产品,而不是一味地追求 LLM 的效能及多模态的能力。


不过在 2024 年底前,只看到能支持英文的 AI Siri,其他旧型设备或是非英语用户,看起来还是只能使用旧版没有支持 LLM 的 Siri。就此而言在大语言模型的赛跑上,苹果也还是落后主流对象像 OpenAI、微软或谷歌,而且看起来要支持其他语言(或是说让其他语言的精准度达标)似乎还有一段距离。


但整体而言,在“使用体验”上仍会领先目前的对手。

从“ChatBot”到“ChatBot+”到“体验”

以目前其他 LLM 市场的主要玩家:OpenAI 的 ChatGPT 停留在“ChatBot”的层级,要走出 ChatGPT 目前只能靠卖 API 给开发者做整合。谷歌的 Gemeni 和微软 PC 上的 Copilot 目前也是在“ChatBot+”的层级,也就是 ChatBot 再多整合一下外部功能,不过依旧是市场上最有可能做到 LLM 深度整合的玩家。其他硬件大厂如三星和华硕的 AI 能力,似乎都还停留在“功能”的阶段,例如:圈图搜索、即时翻译、AI 修图或图片搜索。


以苹果的 Apple Intelligence 而言,似乎已经让 LLM 服务提升到“体验”的层级
,让 AI 做到真正的“相关”(relevant),在有做到“relevant”的前提下,用户能使用的情境或是功能的数量才会大幅提升,甚至趋近于无限,也才能真正实践 AI 助理的理想。总结而言,在强大的苹果生态系底下,其他的语言模型再强大也很难撼动苹果“让 LLM 深入整合到用户生活”的竞争力,也期待未来各家 LLM 能更深度整合到用户的生活情境。

更多博客内容

联系我们

联络我们

让我们谈谈你的想法!

与您的创新数字合作伙伴一起启动您的业务。我们将在一个工作日内回复。(GMT+8)