多年来,谷歌一直尝试将 AI 融入 Android 应用程序中。尽管“Apple Intelligence”(苹果智能)曾因入场较晚而受到一些批评,但在今天的 WWDC 2025 上,苹果正式向应用开发者开放了其主要的大型语言模型(LLM),并支持离线和即时访问。

作为其 Apple Intelligence 平台一系列更新的一部分,苹果宣布开发者现在可以直接调用驱动这些功能的设备端基础模型。这意味着任何 iOS 应用——不仅仅是苹果自家的应用——都可以在无需连接互联网的情况下添加生成式 AI 功能。虽然谷歌通过其 Gemini Nano 和 GenAI API 也提供了类似功能,但从初步来看,苹果的实现方式似乎更易于集成,且适用范围更广。
苹果举了这样的例子:比如一个测验应用,可以根据笔记自动生成问题。
根据苹果的新闻稿,Foundation Models 框架允许开发者仅使用三行 Swift 代码即可访问苹果的大型语言模型。该模型支持引导式生成、工具调用以及自然语言处理,所有操作均在本地完成,且完全免费。苹果举例称,例如一个测验应用可以根据笔记自动生成问题,或者一个登山应用即使在完全离线的情况下,也能用自然语言搜索登山路径。
由于一切都在设备上本地运行,苹果强调其“在设计上就注重隐私保护”。虽然谷歌在将 AI 融入操作系统方面动作更快,但苹果似乎以更无缝的方式将其开放给所有应用使用。
新的开发者工具和 Apple Intelligence 功能现在已通过 Apple Developer Program 向开发者开放测试。公开测试版将于下月推出,全面开放则将于今年秋季向支持的设备用户推送。