引入Gemini、接入MCP:不靠AI也能卖爆,苹果为何死磕大模(型?

  更新时间:2026-01-20 02:23   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

PC 的 AI 功希望 Gemini 能在年内就集成到 iPhone 的 Apple Intelligence 功让 AI 变成 iOS 里的一

<p id="48L0AKIS">一方?面是 AI 的热闹还在]继续,但另一方面,消费电子市场似乎也在给「AI 热」泼了一次冷水,告诉我们:AI 这两个字,好像没有之前预想的那么重要。</p> <p id="48L0AKIT">戴尔产品负责人凯文·特威利格最近在 CES 2025 上就明确表示,他们过去一年观察发现,PC 的 AI 功能并不会影响消费者的购买决策,甚至言必称 AI 的产品宣传「让用户更加困惑」。</p> <p id="48L0AKIU">不单是戴尔,联想智能设备业务集团总裁卢卡·罗西也委婉表示,多数消费者的决策依据仍然是设备的轻薄设计、续航、与拓展性等,只有少数专业群体会明确关注 AI 功能。</p> <p id="48L0AKIV">事实上也的确如此,至少 AI 对于当下手机、PC 的消费者来说,还远不是购买决策的重要因素,这点从我们身边到整体市场皆是如此。</p> <p id="48L0AKJ0"><strong>IDC 最近就接连发布了两份市场报告。</strong>一份是 2025 年第四季度全球 PC 市场报告,显示在 Windows 10 终止支持和内存短缺的背景下,戴尔和联想领跑 TOP5 厂商,出货量同比增长 18.2% 和 14.4%,与 AI 并无明显关联。</p> <p class="f_center"><br><br></p> <p id="48L0AKJ2">一份则是 2025 年第四季度中国手机市场报告,显示在一众国产手机品牌下滑的背景下,iPhone 不仅再一次保住了第四季度第一的宝座,更同比去年大增 21.5% 至 1600 万台,主要则是得益于这代 iPhone 17 系列对于国内消费者依然极具吸引力。</p> <p class="f_center"><br><br></p> <p id="48L0AKJ4"><strong>而国行 iPhone,众所周知并没有上线任何 Apple Intelligence(苹果智能)功能。</strong>无论怎么看,iPhone 17 都几乎是这一代全球主流旗舰里,AI 色彩最淡的一款。</p> <p id="48L0AKJ5">但它就是卖爆了。</p> <p id="48L0AKJ6">过去两年,AI 一直被很多品牌认为是一种对市场销量和声量的强刺激,围绕 AI 的很多产品营销,也让不少消费者感到困惑。这不是说消费市场已经开始反 AI,只是对铺天盖地的「AI」已经脱敏,用户真正关心的,还是和实际使用息息相关的产品体验。</p> <p id="48L0AKJ7"><strong>如果说不靠 AI,iPhone 依然能卖爆,消费者也开始对 AI 的各种宣传话术免疫,那苹果还有必要继续砸重金追赶全球顶级大模型吗?</strong></p> <p id="48L0AKJ8">坦白讲,这个问题的答案很难用一句话概括。</p> <p></p> <h5>引入 Gemini、接入 MCP,苹果的 AI 战略变了</h5> <p id="48L0AKJ9">「我们相信,我们需要拥有并控制我们产品背后的主要技术,只参与能够做出重大贡献的市场。我们相信对成千上万的项目说不,这样我们才能真正专注于那些对我们真正重要和有意义的少数项目。」</p> <p id="48L0AKJA">2009 年,时任苹果 COO 的库克在一定程度上表明了苹果的决策思路。问题在于,什么是主要技术?屏幕和芯片显然都是影响手机体验的关键,但苹果并没有自研屏幕,却自研了芯片。</p> <p id="48L0AKJB"><strong>所以作为 AI 功能底座的基础模型,是屏幕还是芯片?</strong></p> <p id="48L0AKJC">一周前,苹果与谷歌投下了一个爆炸性新闻,联合官宣下一代「Apple Foundation Models」(苹果基础模型)将基于 Google 的 Gemini 和云技术,并在此基础上推出未来的 AI 功能和更具个性化的 Siri。</p> <p id="48L0AKJD">事实上,Google CEO 桑达尔·皮柴早在 2025 年 4 月就透露过,希望 Gemini 能在年内就集成到 iPhone 的 Apple Intelligence 功能上,也间接透露了苹果当时的考虑。到了 11 月,彭博社披露双方正在敲定一项为期多年的合作协议,苹果将以每年约 10 亿美元获得 Gemini 的使用权,雷科技也做了进一步的分析。</p> <p class="f_center"><br><br></p> <p id="48L0AKJF">图片来源:The Verge</p> <p id="48L0AKJG">这不是简单的「加一个 Gemini 入口」或者「把 ChatGPT 换成 Gemini」。更像是苹果承认了一件现实:在短时间内扭转 AI 体验上的劣势,想靠自研模型不太现实。于是我们看到,苹果选择了在他看来最有能力的 Gemini。</p> <p id="48L0AKJH"><strong>但这并不等于放弃自研。</strong>过去两年,苹果一直在推进自己的基础模型体系。官方技术报告里,苹果明确介绍了 Apple Intelligence 背后的两类模型,一类是约 30 亿参数的端侧模型,另一类是运行在私有云计算平台上的服务器模型。</p> <p id="48L0AKJI">同时,苹果也不断强调私有云计算的定位,它不是普通公有云,而是把设备级安全模型延伸到云端,让更大模型在云上跑,但仍然尽可能把隐私边界锁在「苹果可验证的运行环境」里。包括引入 Gemini。联合声明中也强调,Apple Intelligence 将继续运行在苹果设备和私有云计算上。</p> <p id="48L0AKJJ">换言之,苹果虽然在模型层引入了第三方的 Gemini,但在运行层和能力层(面向开发者)仍然保有绝对的把控。</p> <p id="48L0AKJK">不过值得关注的变化,不止于基础模型的变动。更关键的是,苹果正在把 AI 的战场,从「谁的模型更强」挪到「谁更能把工具、数据和第三方应用连接起来」。</p> <p id="48L0AKJL"><strong>这就牵到了 App Intents 和 MCP。</strong>在苹果设计的架构里,App Intents 框架一直是 Apple Intelligence 对外的核心管道,深度整合应用的动作和内容与跨平台的系统体验,包括 Siri、Spotlight、控件、控件等。而第三方应用,能够通过App Intents 实现应用内外的动作执行和功能发现等。</p> <p id="48L0AKJM">去年 9 月,iOS 26.1 beta 版的代码就显示苹果正在为 MCP 做系统级支持,并且是接入 App Intents 框架,让开发者继续写熟悉的 App Intents,系统再把这些能力映射到 MCP 世界。</p> <p class="f_center"><br><br></p> <p id="48L0AKJO">如果这一步真的在今年 WWDC26 上落地,它的重要性会在很大程度让我们忽略苹果在「底层模型」的劣势。因为将 MCP 接入 App Intents 核心解决的是「模型能不能可靠地调用工具」,当一个系统把大量 App 能力用统一协议暴露出来,并把权限、回执、失败兜底都做成系统级能力时,模型就更像一个可替换的发动机。</p> <p id="48L0AKJP"><strong>发动机当然还存在「优劣之分」,但不管是 Gemini,还是未来的自研模型,甚至是其他模型,只要它遵守同一套工具调用与权限边界,用户体验就不会被连根拔起。</strong>而把这两条线放在一起看,不难得出一个结论:</p> <p id="48L0AKJQ">苹果当然还会训练模型,甚至必须训练。它需要端侧模型,需要把基础能力固化成自己的系统底座,但未必还需要把全部筹码押在「追赶全球顶级大模型」上,因为具体到产品体验,模型未必会是那个核心支点。</p> <p></p> <h5>苹果 AI,究竟走向何方?</h5> <p id="48L0AKJR">说到这里,其实已经很难再用「做不做大模型」简单概括苹果的 AI 战略了。</p> <p id="48L0AKJS">从引入 Gemini 作为基础模型,坚持私有云计算的运行模式,再到为 App Intents 接入 MCP ,苹果已经非常明确地给出了一种新方向,不再试图用一个最强模型,去正面硬刚所有对手,而是试图搭一套新的系统级范式,让 AI 变成 iOS 里的一种基础能力。</p> <p id="48L0AKJT">问题在于,这条路到底能不能走通,现在还没有答案。因为从产品体验的角度看,苹果这套「Gemini + 私有云计算 + MCP」的新模式,本质上是在赌一件非常具体、也非常现实的事情:</p> <p id="48L0AKJU"><strong>Siri 也好,AI 功能也好,到底能不能更好地解决用户的需求?</strong></p> <p class="f_center"><br><br></p> <p id="48L0AKK0">如果 AI 只是多了一层更聪明的自然语言入口,而底层权限、调用边界、系统能力暴露程度并没有发生质变,那无论背后是 Gemini 还是苹果自研模型,用户最终感知到的,也只会是一个更聪明点的 Siri。</p> <p id="48L0AKK1">这也是为什么,苹果即便引入了 Gemini,依然要把私有云计算和系统边界抓得这么紧。它真正想控制的,从来不是模型参数规模,而是 AI 能在多大程度上,进入 iOS 的核心能力层,而不是继续被隔离在一个个 AI 功能里。</p> <p id="48L0AKK2"><strong>所以不 AI 就能卖爆,苹果还有必要训练模型吗?</strong></p> <p id="48L0AKK3"><strong>答案是有,但更重要的是,模型不是一切。</strong>引入 Gemini,既是无奈之举,也是一个务实之选,更根本的变化在于苹果选择重新聚焦到用户体验,反推过来试图先把基础模型上的短板补齐,而不是硬着头皮自己死磕到底。简言之,苹果现在更在意的,是时间和体验的确定性。</p> <p id="48L0AKK4">如果几年后回头看,用户对 Apple Intelligence 的评价,更多来自体验有没有变好,而不是模型到底是谁提供的,那今天这一步,可能反而会被证明是对的。</p> <p id="48L0AKK5">这,或许才是苹果真正要赌的那一把。</p>

编辑:都想友