微软研究院当地时间周二宣布其 Phi-2 小型语言模型(SML),这是一款文本到文本的人工智能程序,据 X 平台的一篇帖子称,它「足够小,可以在笔记本电脑或移动设备上运行」。
Phi-2 拥有 27 亿参数,性能堪比其他更大的模型,包括 Meta 的 Llama 2-7B(拥有 70 亿参数)和 Mistral-7B(另一款 70 亿参数模型)。
微软研究院还在其 Phi-2 发布的博客文章中指出,尽管 Phi-2 的参数少于谷歌全新的 Gemini Nano 2 模型(后者拥有 50 亿多参数),但它的性能更胜一筹,并且相比 Llama 2,其回应中的「毒性」和偏见更少。
微软还借此机会对谷歌发布的 Gemini 模型进行了一番小小的挖苦,后者在其即将推出的规模最大、能力最强的新 AI 模型 Gemini Ultra 的演示视频中展示了其解决相对复杂的物理问题甚至纠正学生错误的能力。事实证明,尽管 Phi-2 的规模可能只是 Gemini Ultra 的一小部分,但它也能正确回答问题并使用相同的提示纠正学生。
然而,尽管这些发现令人鼓舞,但 Phi-2 目前存在一个重大限制:根据微软研究许可证,它仅用于「仅限于研究目的」,不适用于商业用途。该许可证进一步规定 Phi-2 只能用于「非商业性、非收入产生的研究目的」。因此,希望在其基础上构建产品的企业暂时无缘。