更新:2026-02-14 08:02:09
1月26日消息,本月早些时候,苹果与谷歌已正式宣布达成合作,将为今年晚些时候推出的Siri等产品功能提供人工智能支持。
知名记者古尔曼的最新报道指出,这项合作的成果最快有望在下个月推出的iOS 26.4测试版中登场,苹果方面还打算以某种形式向公众展示相关功能。
据了解,新一代Siri将依托谷歌的Gemini模型与云技术来提供支持。
苹果计划每年向谷歌支付大约10亿美元,以获得定制化Gemini模型的使用权,其核心版本是拥有1.2万亿参数的Gemini 2.5 Pro。
该模型将承担Siri的信息摘要、任务规划、复杂多步指令执行等核心功能,相较于当前Siri所采用的1500亿参数云端模型,其处理能力与上下文理解深度实现了量级提升,可支持多模态交互以及128K token的超长文本处理。
升级后的Siri计划在2026年春季与iOS 26.4系统一同推送,之后还会在2026年6月WWDC大会上预览的iOS 27、macOS 27等系统里进行更深入的整合。
据了解,苹果之前曾对谷歌Gemini、OpenAI ChatGPT、Anthropic Claude这三大主流模型进行过测试,最终决定选择谷歌,主要原因有几个:一是财务成本方面更具优势;二是双方之间有着长期的合作基础;三是Gemini 2.5 Pro目前在大型语言模型的排行榜上表现处于领先地位。
Gemini运用混合专家架构,尽管整体参数规模突破万亿,但每次进行查询时只会启用部分参数,这样既能确保出色的性能表现,又能减少计算成本和能耗消耗,从而适配iPhone、Mac等多种设备的使用场景。
谷歌为苹果开发的AI模型将部署在苹果的私有云计算服务器上,谷歌无法访问苹果用户的数据,以此打消用户对数据泄露的顾虑。