苹果:发布自回归视觉模型AIM

苹果团队在arXiv上发布论文,提出AIM的视觉模型,该模型使用自回归生成目标进行预训练。研究展示了图像特征的自回归预训练具有与文本对应物(即大型语言模型)类似的缩放属性。具体来说,论文主要得出了两个发现:模型容量可以轻松地扩展到数十亿个参数,并且AIM有效地利用了大量未经筛选的图像数据集。

论文地址:
https://arxiv.org/pdf/2401.08541
https://arxiv.org/pdf/2401.08541.pdf

项目地址:
https://github.com/apple/ml-aim

购物车
優惠
搜索