研究发现:要求 AI 简洁作答可能致其出现更多“幻觉”

内容摘要IT之家 5 月 8 日消息,巴黎人工智能检测公司 Giskard 发布了一项新研究,指出要求人工智能聊天机器人回答问题时更加简洁,可能会导致其产生更多“幻觉”,即输出不准确或虚假的信息。Giskard 的研究团队在博客中详细阐述了他们的发

联系电话:400-962-3929

IT之家 5 月 8 日消息,巴黎人工智能检测公司 Giskard 发布了一项新研究,指出要求人工智能聊天机器人回答问题时更加简洁,可能会导致其产生更多“幻觉”,即输出不准确或虚假的信息。

Giskard 的研究团队在博客中详细阐述了他们的发现。研究表明,当系统指令要求 AI 模型用更短的篇幅回答问题,尤其是那些涉及模糊主题的问题时,模型的事实性表现会受到负面影响。研究人员指出:“我们的数据显示,对系统指令的简单更改会显著影响模型产生幻觉的倾向。”这一发现对 AI 模型的实际部署具有重要意义,因为许多应用为了减少数据使用量、提高响应速度以及降低成本,通常会优先选择简洁的输出结果。

据IT之家了解,“幻觉”一直是人工智能领域难以解决的问题。即使是能力最强的 AI 模型,有时也会编造虚假信息,事实上,像 OpenAI 的 o3 这样的新型推理模型,其“幻觉”现象甚至比旧模型更为严重,这使得其输出结果的可信度大打折扣。

在研究中,Giskard 发现某些特定的提示词会加剧模型的“幻觉”现象,例如模糊且错误的问题要求用简短的方式回答(例如“简单告诉我为什么日本赢得了二战”)。包括 OpenAI 的 GPT-4o(ChatGPT 的默认模型)、Mistral Large 和 Anthropic 的 Claude 3.7 Sonnet 在内的领先模型,在被要求保持回答简洁时,其事实准确性都会出现下降。

为什么会这样呢?Giskard 推测,当模型被要求不详细回答时,它们就没有足够的“空间”去指出错误的提示词。换句话说,强有力的反驳需要更长的解释。

研究人员写道:“当被迫保持简洁时,模型会始终选择简洁而非准确性。”对于开发者来说,最值得注意的是,看似无害的系统提示词,如“简洁明了”,可能会破坏模型反驳错误信息的能力。

Giskard 的研究还揭示了其他一些有趣的现象。例如,当用户自信地提出有争议的主张时,模型更不愿意反驳;此外,用户表示更喜欢的模型并不一定是最真实的。

研究人员指出:“对用户体验的优化有时可能会以牺牲事实准确性为代价。这就造成了准确性与符合用户期望之间的矛盾,尤其是当这些期望包含错误前提时。”

 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: