Skip to content

4.3 幻觉抑制(Hallucination Reduction)

引言:为什么 AI 会"严重胡说八道"

你一定见过 AI 输出这样的内容:

  • 明明不存在的事实,被它说得信誓旦旦
  • 明明没给它信息,它却自动"脑补细节"
  • 明明应该引用原文,它却自己编造论据
  • 明明是技术问题,它给出了完全错误的专业解释

这些错误不是"偶然",也不是"模型坏了"。这是大模型的天性:模型会在缺乏信息时自动补全,这种补全未必是真实的,而是概率最高的"最像答案的语言"。 这类错误在提示词工程中叫幻觉(Hallucination)

4.3.1 AI 为什么会产生"幻觉"

原因说明
模型"必须输出",即使信息不足大模型不会说"我不知道",而是根据权重猜一个最像答案的句子
语言模型不是知识库,而是文本预测机它预测下一个 token,会尽量连贯、自洽、顺滑,即便事实不对
提示模糊/无限制/无上下文问题太笼统、任务无边界、缺少上下文、没有禁止项

幻觉往往是"提示词质量不够好"的结果。

4.3.2 哪些任务最容易出现"幻觉"

任务类型风险说明
事实性任务历史、法律、医学、技术细节、人物背景、数据指标
引用任务提取原文、生成引用、概括信息
判断任务情境分析、推理、观点分类
专业解释任务代码分析、科学原理、复杂技术架构
缺少上下文的任务如果你不给足够信息,模型就会补

4.3.3 幻觉抑制的六大核心技巧

技巧说明示例
范围边界避免 AI 乱写不该写的东西"只基于提供的文本,不要加入外部信息"
引用来源强制 AI 引用原文"请引用原文中的关键句子作为依据"
禁止项直接限制模型不能做什么"禁止推测、脑补或创造不存在的信息"
无法回答机制让模型敢说"不知道""如果无法判断,请回答'信息不足'"
自我检查让 AI 检查自己的输出"请检查是否包含未在原文出现的信息"
安全示例示例比规则更强提供正确做法和错误做法的对比示例

4.3.4 幻觉抑制万能模板

请在回答时遵守以下原则:

【范围】
- 只基于提供的内容回答
- 不要使用外部知识
- 信息不足时必须明确指出

【限制】
- 禁止推测、脑补、虚构内容
- 禁止添加原文未出现的实体
- 禁止编造数据和引用

【引用】
- 在每条结论后附上来自原文的依据(引用原文片段)

【自检】
请检查你的输出是否包含以下问题:
- 是否引用原文?
- 是否包含虚构信息?
- 是否存在推测?
若有,请修正并输出最终版本。

4.3.5 实战案例:差提示 vs 幻觉抑制提示

差提示(高风险):

请分析以下文章的用户画像。

AI 会自动脑补年龄、性别、收入、城市,甚至编造不存在的数据。

好提示(带幻觉抑制):

请基于以下文章分析用户画像。

【范围】
- 只基于文章内容
- 不得加入任何外部信息
- 若文中未提及,请明确写"文中未说明"

【输出结构】
1. 明确提及的用户特征(逐条引用原文)
2. 未提及的特征(统一写"文中未提及")
3. 可推断但必须指出依据(引用原文)

【自检】
请检查是否包含任何原文未出现的信息,若有请删除。

【文章】
……

4.3.6 幻觉 vs 创造力:如何区分

类型适用场景是否需要抑制
创造力写内容、写剧本、写文案、写故事不需要,允许合理发挥
幻觉事实性任务、引用任务、分析任务必须抑制

判断方式:是否依赖真实事实? 是→幻觉必须压制;否→创造力可以增强。

本节小结

关键要点

  1. 幻觉是大模型的本能行为,不是 Bug
  2. 幻觉主要来自:信息不足 + 模糊指令 + 无边界
  3. 幻觉抑制六大技巧:范围限制、引用原文、禁止项、无法回答机制、自我检查、示例对齐
  4. 事实性任务必须使用幻觉抑制
  5. 创意任务不需要压制幻觉

幻觉抑制是与安全性、准确性、可靠性直接相关的能力,接下来我们将学习:多轮对话中保持一致性