最近,法国的AI初创公司Mistral发布了一款全新的编码模型——Codestral Mamba。这款模型不仅速度快,而且能够处理更长的代码,帮助程序员和开发者提升工作效率。Mistral在开源AI领域已经积累了不少名气,这次推出的Codestral Mamba更是让人眼前一亮。
Codestral Mamba基于一种叫做“Mamba”的新架构,这种架构比传统的变换器架构更高效。它的设计让模型在处理复杂任务时,能够更快地给出结果,并且能够处理的输入文本长度达到256,000个token。
Mistral 测试了该模型,该模型将在 Mistral 的 la Plateforme API 上免费使用,文本处理长度是 OpenAI 的 GPT-4o 的两倍(相比之下GPT-4o只能处理128,000个token)。
在测试中,Codestral Mamba在编程任务上表现优秀,超过了许多竞争对手,包括CodeLlama和DeepSeek等开源模型。Mistral的这款模型特别适合本地编码项目,让开发者在编码时更加得心应手。
除了Codestral Mamba,Mistral还推出了另一款模型——Mathstral,这是一款专注于数学推理和科学探索的AI模型。它的设计目的就是帮助用户解决复杂的数学问题,尤其适合在STEM领域使用。Mathstral同样采用了开源Apache2.0许可,用户可以自由使用和修改。
Mistral的进步背后不仅是技术上的突破,还有其获得的资金支持。最近,Mistral成功融资了6.4亿美元,估值接近60亿美元,得到了微软和IBM等大公司的投资支持。可以预见,Mistral在未来的AI领域将继续发挥重要作用。