Appearance
17.4 RAG + Prompt 的问答系统
引言:为什么 RAG + Prompt 是当前最强的企业级问答方案
大模型强大但会"编造",知识无法实时更新,而RAG(Retrieval-Augmented Generation)完美弥补了这些缺点。
17.4.1 系统目标
| 目标 | 说明 |
|---|---|
| 精确检索相关文档 | 检索模块 |
| 过滤无关内容 | 上下文过滤 |
| 使用提示词保证回答基于事实 | Grounded Answer |
| 避免模型使用"脑补知识" | 防幻觉 |
| 能解释答案来源 | 引用来源 |
17.4.2 核心提示词模块
| 模块 | 说明 |
|---|---|
| Retriever Prompt | 生成"搜索意图"增强检索效果 |
| Context Filter | 只保留与用户问题强相关的段落 |
| Grounded Answer | 严格基于提供的文档回答 |
| Verifier | 验证答案是否严格基于文档 |
17.4.3 关键 Prompt 设计原则
| 原则 | 说明 |
|---|---|
| 严格"基于文档"限制 | 如果文档没有说,请不要回答 |
| 引用来源 | 输出引用来源 ID、原文、位置 |
| 输出结构化 JSON | 便于前端展示和下游处理 |
| 置信度评分 | 给出置信度和不确定性来源 |
17.4.4 工程挑战与解决方案
| 挑战 | 解决方案 |
|---|---|
| 文档检索不准 | 过滤 + Rerank |
| 幻觉引用 | 规范 Citation Schema |
| 上下文太长 | 去噪 + 片段压缩 |
| 回答不一致 | 自检 + Verifier |
本节小结
关键要点
- RAG + Prompt 是企业级问答系统的黄金组合
- Grounded Answer 是核心
- 必须结合过滤、验证、自检、引用等机制
- 该系统比普通问答系统可靠性高数倍
RAG 问答系统是企业级应用,接下来我们将学习:企业级工作流 Agent 系统。


