OpenAI 今日宣布,全新旗舰模型 GPT-4o mini 已同时登陆 Azure AI,支持文本处理能力,并将在后续推出图像、音频和视频功能。
GPT-4o mini 比 GPT-3.5Turbo 智能得多——在大规模多任务语言理解 (MMLU) 测量中得分为82%,而 GPT-3.5Turbo 为70%——而且便宜60% 以上。1该模型提供了扩展的128K 上下文窗口,并集成了 GPT-4o 改进的多语言功能。Azure OpenAI Studio Playground 可免费试用 GPT-4o mini。
微软 Azure AI 为 GPT-4o mini 带来了默认安全性,扩展数据驻留和服务可用性升级。客户可以期待在 Azure AI 上体验到更出色的性能和功能,尤其适用于助手、代码解释器和检索等流媒体场景。
在Azure AI 宣布为 GPT-4o mini 提供全球随用随付且最高吞吐量限制。现在,客户可以根据所消耗的资源灵活付费,同时流量将在全球范围内路由以提供更高的吞吐量,同样可以数据的静态控制存储位置。全球随用随付部署选项将提供每分钟1500万个token (TPM) 的吞吐量,为 GPT-4o mini 提供99.99% 的可用性,并与 OpenAI 相同的行业速率。
GPT-4o mini 将于本月登陆 Azure AI,并在 Batch 服务中提供。Batch 通过使用非高峰容量,以50% 的折扣率在24小时内交付高吞吐量作业。这只有在 Microsoft 在 Azure AI 上运行的情况下才有可能,这使微软 Azure AI 能够向客户提供非高峰容量。
微软 Azure AI 本月还将发布 GPT-4o mini 的微调功能,让客户能够根据具体用例和场景进一步定制模型。继上个月更新为基于token的培训计费后,微软 Azure AI 将托管费用降低了43%。再加上其低廉的推理价格,这使得 Azure OpenAI 服务微调部署成为具有生产工作负载的客户的最具成本效益的产品。