
苹果的全新生成式AI产品Apple Intelligence不仅面向消费者,开发者们也将能够利用这一最新技术。在周一举行的WWDC 2024的苹果主题演讲中,该公司宣布开发者将能够将由Apple Intelligence驱动的体验集成到他们自己的应用程序中。
苹果的SDK(软件开发工具包)已经更新,提供了多种新的API和框架,使应用制作者可以轻松集成Image Playground(或GenAI图像创建)。苹果展示了一个像Craft这样的应用可以利用这一功能,通过允许用户添加AI图像,使用户的文档更具视觉效果。
AI 动力写作工具也将自动集成到任何使用标准可编辑文本视图的应用程序中。针对此功能,苹果演示了一个像Bear Notes这样的应用可以自动允许用户重写、校对和总结他们的笔记。
此外,苹果正在为开发者构建更多与Siri在应用程序中进行操作的方式。
已经采用SiriKit的开发者们将立即在Siri的许多新功能上看到增强,而无需额外的工作,苹果表示。这包括列表、笔记、媒体、消息、付款、餐厅预订、VoIP通话和锻炼等领域。
在其开发者主题演讲中,苹果表示,开发者将能够在不额外工作的情况下受益于 Siri 的两项新能力。首先,Siri将能够调用应用程序菜单中的任何项。这意味着用户可以在幻灯片中说“显示我的演讲者笔记”,甚至更富有对话性,比如“我需要看一下我的演讲者笔记”。
其次,Siri将能够访问屏幕上显示的任何文本,使用苹果的标准文本系统。这将使用户能够参考并对屏幕上的文本采取行动。例如,如果您有一个提醒或者写有“祝爷爷生日快乐”的备注,您可以只需说“给他打FaceTime”来执行该备注。
与此同时,苹果的App Intents框架也将获得对Apple Intelligence的访问。
苹果正在定义新的意图,并将其提供给开发者,其中包括书籍、浏览器、相机、文档阅读器、文件管理、日记、邮件、照片、演示文稿、电子表格、白板和文字处理等一系列类别。

苹果声称,这些意图已经定义和测试,以便开发者更容易接受。
借助这些意图,像Darkroom这样的照片编辑应用可以利用Apply Filter 意图,使用户只需说"对我昨天拍摄的伊恩照片应用一种电影效果"即可让应用采取行动。将来将添加更多领域。
最初,用户将能够使用Shortcuts应用程序进行开发,但随着时间的推移,Siri将获得在支持的领域中调用应用程序意图的能力。
此外,苹果在其主题演讲中分享,适合现有SiriKit领域的应用程序将能够受益于Siri的增强对话功能,例如即使您口齿不清或了解对话早期部分的引用,也能正确回应。
此外,Siri还将能够使用新的Spotlight API从应用程序中搜索数据,从而使应用程序实体能够包含在其索引中。这些实体指的是Apple Intelligence对物品(如照片、消息、文件、日历事件等)的语义索引。
同时,该公司还宣布了自己的密码管理器应用、由AI生成的Bitmoji和iPad的计算器。
本文在发布后进行了更新,添加了来自开发者主题演讲的更多信息。