苹果AIM自回归视觉模型验证性能与模型规模有关

苹果公司的研究者通过自回归图像模型(AIM)验证了视觉模型“参数越多性能越强”的规律,进一步证明随着容量或预训练数据量的增加,模型能不断提升性能。AIM能有效利用大量未经整理的图像数据,训练方法和稳定性与最近的大型语言模型(LLM)类似。这一观察结果与之前关于扩展大型语言模型的研究结果是一致的。

虽然本文实验所使用的模型规模有限,还需进一步探索是否能在更大参数量级的模型上验证此规律。研究者使用的预训练目标遵循应用于图像 patch 序列的标准自回归模型,通过一系列实验和研究,验证了模型容量可以轻松扩展到数十亿个参数,同时对下游任务有很好的性能。

苹果AIM自回归视觉模型验证性能与模型规模有关

此外,研究者对自回归目标训练 ViT 模型的多方面进行了探讨,并且重新审视了之前的工作。研究者的实验报告显示,在整个训练过程中,优化目标直接带来更好的下游性能,而随着模型容量的增加,损失值和下游任务的准确性都有所提高。这一观察结果与在 LLMs 中观察到的趋势一致,反映了优化目标会直接带来更好的下游性能。

在 AIM 的设计参数中,除了扩展宽度,研究者还特别采用了一种简单设计,使用多层感知机块,独立地对每个 patch 进行处理。研究者同时强调,研究的模型规模有限,对更大参数量级的模型上验证此规律还有待进一步探索。

论文的实验结果证明了视觉模型同样遵循「参数越多性能越强」的规律,自回归训练对图像模型具有很好的扩展性,并能够满足视觉特征的训练要求。对未来图像模型性能提升和优化提供了新的研究方向和思路。

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

三星Galaxy S24系列登场!2025年底或将启动Galaxy AI功能收费计划

2024-1-19 10:02:36

资讯

Anthropic回应音乐出版商AI版权诉讼,指责其“主观行为”

2024-1-19 10:07:52

搜索