知情人士透露,目前苹果和两家公司的谈判仍然处于初期阶段,最终是否会用还不确定。与此同时,苹果内部代号为“LLM Siri”、采用苹果自研模型的项目仍然在积极推进中。
彭博社报道发布后,苹果股价收盘上涨超过2%。
▲苹果最新股价
一、4个月前已经开始三方评估,Anthropic模型经测试最符合Siri需求
在最近两年的WWDC上,我们能看到苹果非常强调端侧AI的重要性,包括自家的苹果基础大模型以及私密云计算。今年WWDC苹果也正式向所有App开放权限,允许其直接访问苹果智能核心的设备端大语言模型。
虽然此前苹果已经和OpenAI合作,允许Siri调用ChatGPT进行联网搜索,但苹果目前已发布的绝大部分AI功能几乎都是本地的,比如图乐园、写作工具、照片3D化等。苹果原本计划在2026年发布基于苹果自研模型的新版Siri。
据了解,评估考虑使用三方模型的项目,由现在的Siri负责人Mike Rockwell和软件工程主管Craig Federighi发起,是在苹果前AI主管John Giannandrea被调职后进行的。
据报道,由于此前苹果智能和Siri功能的延迟,John Giannandrea已经在公司内部逐渐被边缘化。
Mike Rockwell此前也是苹果Vision Pro的项目负责人,他在今年3月接任了Siri工程负责人一职,他上任后,让新团队开始评估Siri在处理查询任务时使用自家模型和Claude、ChatGPT、Gemini等三方模型,哪一种效果更好。
▲Mike Rockwell
经过多轮测试,Rockwell和其他高管一致认为,Anthropic的技术最符合Siri的需求。知情人士透露,这一结果促使苹果公司的发展副总裁Adrian Perica开始和Anthropic进行商谈。
二、苹果要能跑在自家服务器上的“定制模型”,Anthropic高昂收费难以达成一致
据彭博社报道,在与Anthropic和OpenAI的讨论中,苹果要求他们定制一款能在苹果私有云计算服务器上运行的Claude和ChatGPT版本,这些服务器基于高端Mac芯片构建,苹果目前利用此类基础设施来运行其更为复杂的自研模型。
苹果认为,在自家芯片驱动的、由苹果控制的云端服务器上运行模型,而非依赖第三方基础设施,能更好地保护用户隐私。
苹果目前并没有将其自研模型从设备端或开发者应用场景中移除,但苹果自研模型工程师们担心,如果Siri接入了三方模型,后续其他功能也有可能采取类似措施。
据报道,去年,OpenAI曾提出为苹果训练本地设备模型,但苹果未表现出兴趣,彼时Siri的负责人还是被边缘化以前的Giannandrea。
据知情人士透露,苹果与Anthropic在讨论合作时,对初步的财务条款存在分歧。Anthropic要求每年收取数十亿美元的费用,且该费用每年大幅递增,双方就此难以达成协议。