苹果在昨日的 WWDC24 上重磅公布了 Apple Intelligence(苹果智能),将为 iPhone、Mac 等设备引入一系列 AI 功能。
随后,苹果机器学习官网公布了 Apple Intelligence 的详细信息。据苹果官方介绍,Apple Intelligence 拥有两个基础模型:
-
本地模型:设备上约 30 亿参数的语言模型,测试得分高于诸多 70 亿参数的开源模型(Mistral-7B 或 Gemma-7B);
-
云上模型:可通过私有云计算并在 Apple 芯片服务器上运行的更大云端语言模型。
苹果表示,Apple Intelligence 由多个高性能生成模型组成,这些模型专门针对用户的日常任务,并且可以动态适应他们当前的活动。Apple Intelligence 中内置的基础模型针对用户体验进行了微调,例如编写和精炼文本、对通知进行优先级排序和总结、为用户与家人和朋友的对话创建有趣图像,以及采取应用内操作来简化应用之间的交互。
在预训练方面,苹果的基础模型在 AXLearn 框架上进行训练,这是苹果于 2023 年发布的开源项目。它构建在 JAX 和 XLA 之上,使苹果能够在各种训练硬件和云平台上可扩展地训练模型,包括 TPU 以及云和本地 GPU。
IT之家注意到,苹果承诺在训练基础模型时,该公司从不使用用户的私人个人数据或用户交互,并且会使用过滤器来删除互联网上公开的个人身份信息,例如社会保障和信用卡号码。苹果还过滤了脏话和其他低质量内容,以防止其包含在训练语料库中。除了过滤之外,苹果还执行数据提取、重复数据删除以及应用基于模型的分类器来识别高质量文档。
在优化方面,苹果在设备端模型和服务器端模型都使用了 grouped-query-attention,设备上模型使用 49K 的词汇大小,而服务器模型使用 100K 的词汇大小,其中包括额外的语言和技术标记。
通过优化,苹果号称在 iPhone 15 Pro 上,能够实现每个 prompt token 约 0.6 毫秒的首次 token 延迟,以及每秒 30 个 token 的生成速率。
在指令跟踪评估(IFEval)测试中,苹果本地模型性能优于包括 Phi-3-mini、Mistral-7B 和 Gemma-7B 等模型,且与 DBRX-Instruct、Mixtral-8x22B 和 GPT-3.5-Turbo 相比毫不逊色;而云上模型水平基本与 GPT-4-Turbo 持平。
苹果计划在今年夏天推出的 iOS 18、iPadOS 18 和 macOS Sequoia 测试版中,开放 Apple Intelligence,然后会以测试版的形式,于今年秋季向公众开放,但部分功能、更多语言和平台支持需要等到明年。
Apple Intelligence 可以免费使用,但仅限于配备 A17 Pro 芯片或任何 M 系列芯片的设备。这意味着要使用这些功能,你需要一部 iPhone 15 Pro 或 iPhone 15 Pro Max,即将推出的 iPhone 16 系列也将支持 Apple Intelligence。
在 Mac 方面,你需要一台配备 M1 或更高版本的 Mac,而对于 iPad,你需要一台配备 M1 芯片或更高版本的 iPad Pro 或 iPad Air。