Meta 今年的压轴 AI 大模型来了。Meta 昨日(12 月 6 日)发布 Llama 3.3,共有 700 亿参数,不过性能方面媲美拥有 4050 亿参数的 Llama 3.1。
Meta 强调 Llama 3.3 模型效率更高、成本更低,可以在标准工作站上运行,降低运营成本的同时,提供高质量文本 AI 解决方案。
Llama 3.3 模型重点优化了多语言支持,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语 8 种语言。
在架构方面,Llama 3.3 是一款自回归(auto-regressive)语言模型,使用优化的 transformer 架构,其微调版本使用了监督式微调(SFT)和基于人类反馈的强化学习(RLHF),让其与人类对有用性和安全性的偏好保持一致。
Llama 3.3 上下文长度为 128K,支持多种工具使用格式,可与外部工具和服务集成,扩展模型的功能。
安全方面,Meta 采用数据过滤、模型微调和系统级安全防护等措施,以降低模型滥用的风险;此外 Meta 鼓励开发者在部署 Llama 3.3 时采取必要的安全措施,例如 Llama Guard 3、Prompt Guard 和 Code Shield,以确保模型的负责任使用。
1AI附上参考地址