-
谷歌推出新付费功能,借助搜索结果对抗AI幻觉问题
谷歌公司昨日(10 月 31 日)发布新闻稿,宣布在其 Google AI Studio 和 Gemini API 中,推出 Grounding with Google Search 功能,支持用户通过谷歌搜索验证 AI 回答内容。 主流大模型的挑战 包括 OpenAI、Anthropic 和 Google 在内,大部分大语言模型(LLM)由于训练数据集的原因,都有 1 个知识截止日期,因此在回答…- 1.5k
-
聊天机器人胡说八道?牛津研究人员利用语义熵来识破 AI“幻觉”
近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如 ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“AI幻觉”问题,即提供错误的答案,有时甚至是危险的信息。 图源 Pexels 造成“幻觉”的原因之一是训练数据不准确、泛化能力不足以及数据采集过程中的副作用。不过,牛津大学的研究人员另辟蹊径,在最新出版的《自然》杂志上详细介绍了一种他们新开发…- 1.9k
-
微软正努力治疗 AI 幻觉,以技术手段实时屏蔽和重写毫无根据的信息
就在 GPT-4 因征服标准化测试而登上头条时,微软研究人员正在对其他 AI 模型进行一种非常另类的测试 —— 一种旨在让模型捏造信息的测试。 为了治好这种被称为“AI幻觉”的症状,他们设定了一个会让大多数人头疼的文本检索任务,然后跟踪并改进模型响应,这也是微软在测定、检测和缓解 AI 幻觉方面的一个例子。 微软 AI 负责项目的首席产品官 Sarah Bird 表示,“微软希望其所有 AI 系统…- 2.5k
-
英国格拉斯哥大学哲学研究人员谈“AI 幻觉”:用“胡说八道”来形容更准确
长期以来,人们常常把大语言模型提供的看似合理但错漏百出的答案称作“AI幻觉(AI hallucinations)”。然而,来自英国格拉斯哥大学的三名哲学研究人员近期提出了不同的看法 ——“AI 幻觉”这样的描述并不准确。 当地时间 6 月 8 日,《伦理与信息技术》杂志刊登了三名研究人员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡说八道(bullshitting…- 2.3k
❯
搜索
扫码打开当前页
返回顶部
幸运之星即将降临……
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠
-
¥優惠使用時效:无法使用使用時效:
之前
使用時效:预期有效优惠编号:×
没有优惠可用!