谷歌AI负责人Demis Hassabis表示,人工智能的发展对人类构成了一种存在威胁,类似于气候变化。
他在接受《卫报》采访时指出,他担心人类可能会开发出一个失控的超级智能系统,以及其他恶意可能性。他认为我们必须像对待气候变化一样认真对待人工智能的风险。他还指出,AI技术可能会使制造生物武器变得容易,类似于气候变化问题,国际社会协调有效的全球应对措施可能会拖延,而我们将为此付出代价。因此,他强调我们不能在处理AI方面出现同样的延迟。
图源备注:图片由AI生成,图片授权服务商Midjourney
尽管AI在许多领域,如医疗领域,具有巨大潜力,但Hassabis呼吁建立一个独立机构来监管AI,类似于联合国的气候变化政府间专门委员会(IPCC)。这一观点得到了前谷歌首席执行官埃里克·施密特的支持。
事实上,在Hassabis的采访发表后的一天,谷歌、微软、OpenAI和Anthropic宣布成立了1,000万美元的AI安全基金,旨在推动对最有能力的AI模型进行有效测试和评估的研究。Hassabis在X(之前被称为Twitter)上发帖称赞了这一举措,表示我们正处在人工智能历史上的关键时刻。
尽管AI领域的专家公开表达了对AI安全和道德的担忧,但人们对于像Hassabis和谷歌这样的公司在AI安全和伦理方面的认真程度存在疑虑。2020年,谷歌因AI伦理学家Timnit Gebru和AI研究员Margaret Mitchell共同撰写的一篇有争议的论文未达到谷歌的发表标准而将他们解雇。这篇论文提出了有关AI的若干风险,这些风险现在看来非常准确:其环境影响,如何影响边缘化社群,训练数据中的偏见,数据集如此庞大以至于难以审核,以及它们可能被用来欺骗人们。