Microsoft releases Phi-3.5 series AI models: context window 128K, first introduction of hybrid expert model

Microsoft公司发布了 Phi-3.5 系列 AI Models,其中最值得关注的是推出了该系列首个混合专家模型(MoE)版本 Phi-3.5-MoE.

Microsoft releases Phi-3.5 series AI models: context window 128K, first introduction of hybrid expert model

本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。IT之家附上相关介绍如下:

Phi-3.5-MoE:首个混合专家模型

Phi-3.5-MoE 是 Phi 系列中首个利用混合专家(MoE)技术的模型。该模型在 16 x 3.8B MoE 模型使用 2 个专家仅激活了 66 亿个参数,并使用 512 个 H100 在 4.9T 标记上进行了训练。

微软研究团队从零开始设计该模型,以进一步提高其性能。在标准人工智能基准测试中,Phi-3.5-MoE 的性能超过了 Llama-3.1 8B、Gemma-2-9B 和 Gemini-1.5-Flash,并接近目前的领先者 GPT-4o-mini。

Phi-3.5-vision:增强型多帧图像理解

Phi-3.5-vision 共有 42 亿个参数,使用 256 个 A100 GPU 在 500B 标记上进行训练,现在支持多帧图像理解和推理。

Phi-3.5-vision 在 MMMU(从 40.2 提高到 43.0)、MMBench(从 80.5 提高到 81.9)和文档理解基准 TextVQA(从 70.9 提高到 72.0)上的性能均有提高。

Phi-3.5-mini:轻量级、强功能

Phi-3.5-mini 是一个 38 亿参数模型,超过了 Llama3.1 8B 和 Mistral 7B,甚至可媲美 Mistral NeMo 12B。

该模型使用 512 个 H100 在 3.4T 标记上进行了训练。该模型仅有 3.8B 个有效参数,与拥有更多有效参数的 LLMs 相比,在多语言任务中具有很强的竞争力。

此外,Phi-3.5-mini 现在支持 128K 上下文窗口,而其主要竞争对手 Gemma-2 系列仅支持 8K。

statement:The content is collected from various media platforms such as public websites. If the included content infringes on your rights, please contact us by email and we will deal with it as soon as possible.
Information

A U.S. mayoral candidate wanted to use ChatGPT to govern the city, but was banned by OpenAI

2024-8-22 9:18:17

Information

Making tea, playing the piano, practicing Wing Chun, Stardust Intelligence releases AI robot assistant Astribot S1

2024-8-22 9:20:22

Search