热搜词: 2025 2026

Open AI重磅论文: 不会胡说八道的大模型不是好的大模型

你以为AI“胡说八道”是缺陷?OpenAI最新论文却指出:适度的“幻觉”可能是创造力的源泉。本文深度解读这项研究背后的逻辑,重新定义我们对大模型“准确性”与“有用性”的认知边界。

上周OpenAI发布了一个重磅论文,揭秘了AI为什么会胡说八道,AI幻觉这个问题从理论层面得到了系统性的解释。这个论文可能会改变整个AI产品的设计思路甚至重塑整个AI模型的评测标准。

此前我们普遍认为,随着技术迭代(如模型参数升级、算法优化),AI幻觉会逐步缓解。但即便上月GPT-5发布,面对部分问题时,AI“一本正经说假话”的现象仍未消失。而这篇论文抛出了一个颠覆认知的核心结论:校准性能优异的大模型,必然伴随幻觉;完全“不胡说八道”的模型,反而存在校准缺陷——从技术层面看,这类模型并非优质大模型。

为什么说不会胡说八道的模型不是好的模型,背后的原因也很简单:就是AI大模型在训练他的过程中就是鼓励它去猜测鼓励它去推理胡说八道,而不是让它承认它不知道它有些东西不确定。所以这压根不是一个技术的问题,而是一个系统性的问题,你技术越好这个AI大模型就越善于猜测,它就越有可能给一个胡说八道的答案。是它的训练方式中的评分淘汰机制,这就决定了如果它不胡说八道,就像一个学生写试卷,如果它不写就是零分,但是它写了它还可能得到点分数,不然它就是要被人类打分后淘汰的。

所以如果这个AI的训练方式改变了,那么可能以后我们再问他答案它会直接告诉我们不知道,而不是强行捏造出来一个答案。根据论文里的信息给大家几个建议,在新的AI到来之前可以更好的训练AI,尽可能的降低AI的幻觉率,不让他胡说八道。

这几个建议可以添加到你给大模型的prompt的最后,作为减少幻觉的提示词优化:

1.只有在你非常确定这件事的情况下,才会告诉我这个信息,否则直接告诉我你不知道。(你问的时间,地点,人物等)

2.如果你知道的话你就告诉我,如果你的信息来源不是很可靠那你可以把信息来源告诉我,并且告诉我可靠程度是多少?

3.(在你给AI一个不可靠的回答的时候)你对当前问题的答案进行可行度评级:如实告诉我你对这个答案是非常确定,比较确定,不太确定还是基本靠猜测。

4.这个数据在你的训练数据中出现过几次?如实告诉我。

5.采用分层回答形式:将“高度确定的信息”与“不确定的信息”明确拆分呈现,避免混为一谈。

6.相比于提供可能出错的答案,我更希望你在面对不确定信息时,直接告知“不知道”。