近年来,人工智能领域的主流模型透明度成为焦点,斯坦福大学、MIT、普林斯顿大学等机构合作提出了“基础模型透明度指数”来评估十大主流AI模型的透明度。结果显示,Llama2位列第一,而GPT-4等模型的透明度较低。
尽管AI模型的社会影响日益增大,人们对于这些模型的构建、训练和使用方式仍有诸多疑问,包括数据来源、劳动力待遇等。然而,该评估系统也引发了一些争议,一些开发者认为要求公司公开商业机密过于幼稚。
论文地址:https://arxiv.org/pdf/2310.12941.pdf
尽管如此,透明度对于AI模型的发展和应用至关重要,尤其是在生成式AI领域,因为模型既有提高生产力的潜力,也可能被用来伤害他人。透明度的不足可能导致模型被滥用,因此开发者需要更加注重透明度,包括对模型的构建、功能、风险等方面的公开。
然而,目前大多数主要基础模型开发者都未能提供足够的透明度,这凸显了人工智能行业亟需改进透明度的问题。同时,开源基础模型如Llama2、BLOOMZ等获得较高评分,但仍有改进空间,因为只有极少数开发者透明地展示了模型的局限性和其他关键信息。
在当前的政策争论中,是否应该将人工智能模型开源成为一个争议焦点,但无论开源还是闭源,透明度都是关键因素,以确保AI模型的负面影响得到控制。