-
法律行业“AI幻觉”加剧,美多名律师因引用虚假内容而遭处分
2 月 19 日消息,据路透社今日报道,美国知名个人伤害律师事务所 Morgan & Morgan 向其 1000 多名律师发送了一封紧急邮件,警告他们:AI 能够编造虚假的判例信息,若在法庭文件中使用虚构的内容,可能会被解雇。 此前,怀俄明州的一名联邦法官威胁要对该事务所的两名律师进行制裁,因为他们在一起针对沃尔玛的诉讼中引用了虚假的判例。 其中一名律师在法庭文件中承认,他使用了一个“创…- 1.4k
-
亚马逊推出“自动推理检查”工具,对抗 AI幻觉
12 月 4 日消息,亚马逊云科技(AWS)发布了一款新工具,旨在解决 AI 模型产生的幻觉问题。 1AI注意到,在拉斯维加斯举办的 re:Invent 2024 大会上,AWS 推出了“自动推理检查”(Automated Reasoning checks)工具,该工具通过交叉引用客户提供的信息来验证模型的响应准确性。 AWS 宣称,这是“第一个”也是“唯一”的针对幻觉的防护措施。然而,这种说法可…- 2.6k
-
谷歌推出新付费功能,借助搜索结果对抗AI幻觉问题
谷歌公司昨日(10 月 31 日)发布新闻稿,宣布在其 Google AI Studio 和 Gemini API 中,推出 Grounding with Google Search 功能,支持用户通过谷歌搜索验证 AI 回答内容。 主流大模型的挑战 包括 OpenAI、Anthropic 和 Google 在内,大部分大语言模型(LLM)由于训练数据集的原因,都有 1 个知识截止日期,因此在回答…- 4.1k
-
聊天机器人胡说八道?牛津研究人员利用语义熵来识破 AI“幻觉”
近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如 ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“AI幻觉”问题,即提供错误的答案,有时甚至是危险的信息。 图源 Pexels 造成“幻觉”的原因之一是训练数据不准确、泛化能力不足以及数据采集过程中的副作用。不过,牛津大学的研究人员另辟蹊径,在最新出版的《自然》杂志上详细介绍了一种他们新开发…- 2.6k
-
微软正努力治疗 AI 幻觉,以技术手段实时屏蔽和重写毫无根据的信息
就在 GPT-4 因征服标准化测试而登上头条时,微软研究人员正在对其他 AI 模型进行一种非常另类的测试 —— 一种旨在让模型捏造信息的测试。 为了治好这种被称为“AI幻觉”的症状,他们设定了一个会让大多数人头疼的文本检索任务,然后跟踪并改进模型响应,这也是微软在测定、检测和缓解 AI 幻觉方面的一个例子。 微软 AI 负责项目的首席产品官 Sarah Bird 表示,“微软希望其所有 AI 系统…- 5.7k
-
英国格拉斯哥大学哲学研究人员谈“AI 幻觉”:用“胡说八道”来形容更准确
长期以来,人们常常把大语言模型提供的看似合理但错漏百出的答案称作“AI幻觉(AI hallucinations)”。然而,来自英国格拉斯哥大学的三名哲学研究人员近期提出了不同的看法 ——“AI 幻觉”这样的描述并不准确。 当地时间 6 月 8 日,《伦理与信息技术》杂志刊登了三名研究人员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡说八道(bullshitting…- 3.8k