据彭博社报道,包括 OpenAI、谷歌和 Anthropic 在内的人工智能巨头公司在开发更先进的 AI模型方面遇到了瓶颈,面临着“收益递减”的困境。
据报道,OpenAI 的最新模型 Orion 在处理编码任务方面表现不佳,与 GPT-4 相比,Orion 并没有显著的进步。谷歌即将推出的 Gemini 软件也面临类似的挑战,而 Anthropic 则推迟了其备受期待的 Claude 3.5 Opus 模型的推出。
业内专家指出,这些挑战源于难以找到“新的、未开发的高质量人类生成训练数据”以及同时开发和运营新旧模型的巨大成本。硅谷长期以来一直认为,更多的计算能力、数据和更大的模型将必然带来更好的性能,甚至实现通用人工智能(AGI),但这种观点可能基于错误的假设。
为了应对这些挑战,企业正在探索替代方法,包括模型初步训练完成后进行额外的训练(通过人类反馈改进回答和优化语气)和开发能够执行特定任务的 AI 工具(称为代理),如预订航班或代表用户发送电子邮件。
AI 初创公司 Hugging Face 首席伦理科学家 Margaret Mitchell 表示,“AGI 泡沫正在逐渐破裂,可能需要不同的训练方法才能使 AI 模型在各种任务上表现出色。”其他专家也表达了类似的观点。