苹果正在酝酿一场端侧人工智能的战略大迁徙。据最新爆料,在WWDC2026开发者大会上,苹果计划推出全新的 Core AI框架,用以取代现有的Core ML。这一举措标志着苹果端侧AI战略的重心正从传统机器学习全面转向生成式人工智能。

从Core ML到Core AI:不仅仅是改名
尽管初期两个框架可能共存,但Core AI被定位为苹果未来的核心技术底座。它将承担起整合第三方AI模型与Apple Foundation模型的重任,为开发者提供更强大的端侧AI能力。回顾WWDC2025,苹果通过Core ML的更新,已利用更精细的权重压缩技术,初步实现了大语言模型与扩散模型在Apple芯片上的高效迁移。如今,Core AI将在此基础上更进一步。
深度整合Gemini训练模型,赋能下一代Siri
据了解,Core AI预计将深度集成由Gemini训练的全新苹果基础模型。这一整合将赋能具备类聊天机器人功能的下一代Siri,使其能够更自然地理解用户意图并执行复杂任务。更重要的是,开发者将能通过OS26及后续版本,直接在应用中调用设备端AI处理能力,用于生成文本及其他复杂结果——这一切都在设备端完成,无需将数据上传至云端。
构建开放、高效的端侧AI生态
业内分析认为,Core AI的推出绝非简单的品牌更名。面对全球生成式AI浪潮,这既是苹果的战略防御,也是其主动出击的关键一步。通过引入模型上下文协议(MCP)等潜在技术方案,苹果正试图构建一个更开放、更高效的端侧AI生态。这一转变意味着苹果不再满足于仅作为底层框架的维护者,而是希望通过系统级的整合,加速将生成式AI转化为大众市场的消费级体验。
对于开发者而言,这意味着他们可以在iPhone 17 Pro Max等最新设备上,以前所未有的便捷方式调用端侧AI能力。对于普通用户来说,更智能的Siri、更强大的AI应用体验,或许正是苹果在AI时代交出的答卷。
WWDC2026,让我们拭目以待。
