什么是AI幻觉:类型、成因及如何在学术写作中避免

by Elizabeth Oommen George
Share it on FacebookShare it on TwitterShare it on LinkedinShare it on Email
AI hallucinations

AI幻觉几乎不可避免。你在使用AI辅助学术写作时,可能已经亲身遇到过这种情况:当你让AI总结一篇论文或回答一个技术性问题时,它给出的回答听起来十分出色——语气自信、措辞精准,甚至连引用格式都看起来无可挑剔。但当你仔细核查后却会发现,其中部分被引用的研究其实并不存在。

这些错误很容易在不知不觉中混入你的稿件中,造成信息失真,甚至带来严重的学术信誉风险。随着越来越多的学者在论文写作中使用AI,理解什么是AI幻觉、它为何会出现,以及如何以负责任的方式将AI融入科研写作,已变得尤为关键。

什么是AI幻觉?

当大型语言模型(LLMs)生成的内容看似可信,但实际上却是错误的、具有误导性的、被扭曲的,甚至是完全捏造的内容时,就会出现 AI 幻觉。这类问题既可能是较轻微的错误,例如日期不准确,也可能是严重的捏造行为,比如引用了根本不存在的文献。

加拿大心理学会(Canadian Psychological Association)旗下期刊 Mind Pad 发表的一项研究指出,ChatGPT 会使用真实研究人员的姓名、看起来非常专业的期刊名称,以及格式完全正确的 DOI。这种“高度拟真”的表现,使得引用错误变得极难识别,大大增加了未经核实的 AI 内容在不知不觉中被写入论文的风险——而这种风险在学术场景中是不可接受的。正因如此,包括 ChatGPT 在内的主流 AI 公司都会在产品中明确提示其输出内容可能存在不准确之处,并提醒用户对关键信息进行核查与验证。

但 AI 幻觉这一问题究竟有多普遍?一项发表于 2024 年、针对 ChatGPT 的 AI 幻觉发生频率的研究发现:在生成的 178 条参考文献中,有 28 条无法检索到,另有 69 条并非数字对象唯一标识符(DOI)。不过,单一研究并不能代表全部事实。尽管大型语言模型确实可能生成错误信息,但这类错误出现的频率本身却难以精确预测。AI 幻觉的发生率会受到多种因素影响,包括所使用的模型类型、具体应用领域(例如医疗健康),以及任务本身的复杂程度(如多步骤指令)。

学术写作中的AI幻觉

在学术场景中,AI幻觉的危害尤为严重,因为它们可能扭曲证据、传播错误信息,并削弱学术诚信。下表概述了在科研与写作过程中最常见、且最容易被忽视的几类AI幻觉。

AI幻觉类型释义 AI幻觉示例
虚构的文献引用当AI生成了实际上并不存在的参考文献、研究者姓名或研究成果,但其呈现形式却看起来完全真实、合乎规范时。AI引用了一个并不存在的 2019 年《Nature》论文,使用了真实作者的姓名,却配上了虚假的 DOI。
错误的数据解读,包括过度简化或过度概括当AI对数据、统计结果或实验结论进行错误表述,或给出不准确的总结时。AI 声称某项研究显示成功率为70%,而实际上研究结果给出的区间是66%–79%。
事实性错误与时间上的不一致当AI生成了与事实不符的细节,或混淆了地点、事件与时间线相关的信息时。例如将多伦多列为加拿大的首都,或把人类登月时间错误地写成1968年,而非实际的1969年。
有害的错误信息当AI在伦理、医疗或法律等敏感领域给出不准确或过度简化的信息,并可能因此带来危险或不良后果时。例如,AI可能会错误地认为口头合同在任何情况下都具有法律效力,或对医疗问题给出不正确的判断与建议。
不合逻辑或毫无意义的输出当 AI 生成与提示无关、逻辑混乱或明显不合常理的内容时。 

乍一看,上述示例似乎只是一些小问题,但在学术环境中,哪怕是细微的不准确,也可能引发查重或抄袭警告、论文撤稿风险,甚至损害研究的可信度。随着越来越多的学生和研究者将 AI 纳入日常科研与写作流程,理解这些错误产生的原因就显得尤为重要 

AI 幻觉为什么会发生?

1. 训练数据中的缺口与偏差

AI 模型的能力取决于其训练数据的质量。当训练数据本身存在不完整、偏向性或相互矛盾的问题时,算法就会尝试“自行补全空白”,从而引发AI幻觉。举例来说,如果模型主要基于西方学术文献进行训练,就可能忽视来自代表性不足地区或学科的重要观点,进而在研究中强化文化层面的盲区。更值得警惕的是,为了保持与先前捏造内容的一致性,AI甚至会在后续回答中持续生成错误信息,从而形成AI幻觉不断放大的“雪球效应”。 

2. 缺乏真实世界理解 

与人类不同,AI并不真正“理解”或“体验”世界,也不存在真实的认知过程。生成式AI的工作方式,是基于训练数据中的模式、表达或概念来预测最可能出现的下一个词语,因此其输出往往听起来合理,却可能完全错误或已经过时。此外,大多数AI系统在处理细微差别与复杂语境时仍存在明显局限,这使得AI科研助手在面对包含讽刺、反讽、文化语境或跨学科术语的提示时,容易产生误解,给出过于字面化甚至毫无意义的回答。

3. AI 设计上的局限:缺乏事实核查机制 

生成式AI技术本身并不是为了区分事实与虚构而设计的。即便是像ChatGPT-5这样更先进的模型,也并不具备内置的事实核查机制。更重要的是,由于算法的核心逻辑是基于“预测”,即使模型只使用完全准确的数据进行训练,仍然有可能生成不正确的结论。从本质上看,生成式AI的输出始终存在出现细微却关键性错误的风险。

如何在科研与写作中有效减少AI幻觉

如果你正在将 AI 用于学术工作流程,以下五条最佳实践可以帮助你尽量减少AI幻觉,并以负责任的方式使用工具,产出真正高质量、具备原创性的研究成果。

  1. 在信任之前先核查:  务必对AI生成的事实、数据和引文进行二次验证,对照同行评审文献、可信的学术数据库以及权威平台。始终把AI当作研究助理,而不是最终裁决者。
  1. 给出清晰、结构化的提示词: 生成式AI输出的质量,很大程度取决于提示词本身的质量。避免使用过于宽泛、开放式的指令;越具体、越明确的提示,越能减少错误和偏差。  
  1. 使用为学术场景设计的工具:优先选择专为科研打造、强调透明性、数据安全和准确性的AI工具。例如 Paperpal 会清晰标注AI辅助内容,并且从不将用户数据用于模型训练。
  1. 遵循所在机构的 AI 使用政策: 越来越多的高校和期刊要求在投稿中披露AI的使用情况。因此,请务必查阅并遵循所在机构或期刊的相关规定,并在适当情况下对AI辅助给予明确说明。
  1. 始终以人的判断为核心 :AI可以提升表达清晰度和工作效率,但只有你能保证内容的准确性与学术语境的恰当性。不要把AI当作捷径,它应当用于放大你的思考与专业能力,而不是取而代之。 

AI幻觉揭示了机器模式识别与人类理解之间的差距,但同时也提醒我们:在被合理、审慎地使用时,AI依然具有巨大的潜力。通过核查事实、结构化使用以及遵循学术伦理,科研AI能够真正赋能学生与研究者,在写作、修改和思考过程中发挥积极作用。

 Paperpal 是一款面向科研写作和期刊投稿场景的 AI学术写作工具,帮助作者在写作与投稿前系统性地发现问题并逐步优化。无论是语言表达、文献引用,还是投稿完备度与审稿风险评估,Paperpal 都能提供清晰、可操作的支持,帮助你更安心地完成投稿准备。
Paperpal 提供免费版本供你体验基础功能;升级至 Paperpal Prime,还可使用更完整的写作与投稿支持功能,帮助你在投稿前更从容地准备论文,提高投稿过程的确定性。
立即注册Paperpal,开启高效写作、自信投稿

Share it on FacebookShare it on TwitterShare it on LinkedinShare it on Email
Your Paperpal Footer