NVIDIA联手Hugging Face推高效推理服务,AI 模型的Token 处理效率提升五倍

最近,开源平台 Hugging FaceNVIDIA 宣布了一项令人振奋的新服务 —— 推理即服务(Inference-as-a-Service),这项服务将由 NVIDIA 的 NIM 技术驱动。新服务的推出可以让开发者们更快速地原型设计,使用 Hugging Face Hub 上提供的开源 AI 模型,并高效地进行部署。

NVIDIA联手Hugging Face推高效推理服务,AI 模型的Token 处理效率提升五倍

这一消息是在正在举行的 SIGGRAPH2024大会上公布的。这个会议聚集了大量计算机图形学和互动技术的专家,NVIDIA 与 Hugging Face 的合作正好在此时揭晓,为开发者们带来了新的机遇。通过这项服务,开发者能够轻松部署强大的大语言模型(LLMs),例如 Llama2和 Mistral AI 模型,而 NVIDIA 的 NIM 微服务则为这些模型提供了优化。

具体来说,当以 NIM 的形式访问时,像70亿参数的 Llama3模型,其处理速度比在标准的 NVIDIA H100Tensor Core GPU 系统上部署时高出五倍,这无疑是一个巨大的提升。此外,这项新服务还支持 “在 DGX Cloud 上训练”(Train on DGX Cloud),这项服务目前已在 Hugging Face 上提供。

NVIDIA 的 NIM 是一套针对推理优化的 AI 微服务,涵盖了 NVIDIA 的 AI 基础模型和开源社区模型。它通过标准 API 显著提高了 Token 处理效率,并增强了 NVIDIA DGX Cloud 的基础设施,加速了 AI 应用的响应速度和稳定性。

NVIDIA DGX Cloud 平台专门为生成式 AI 量身定制,提供可靠且加速的计算基础设施,帮助开发者从原型到生产的整个过程,而无需长期承诺。Hugging Face 与 NVIDIA 之间的合作将进一步巩固开发者社区,而 Hugging Face 最近还宣布其团队已实现盈利,团队规模达到220人,并推出了 SmolLM 系列小型语言模型。

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
头条资讯

苹果 iOS 18.1 开发者测试版上线,新增AI通话录音与转录功能

2024-7-30 10:02:15

资讯

24 小时抓取百万次,Anthropic AI 公司被指过度抓取网站数据

2024-7-31 9:34:27

搜索