AI 专业名词百科

可搜索 · 分类 · 创建 · 编辑 · 评论

幻觉(Hallucination) Hallucination

指模型生成看似合理但事实错误或无依据内容的现象,是大模型应用中的核心风险之一。

分类:safety 类型:concept 别名:幻觉, 编造内容

幻觉产生的原因包括:训练数据噪声、预测目标仅是「下一个 Token」而非事实正确性、以及缺乏实时知识源。在问答、搜索和决策场景中,幻觉会导致误导性信息甚至安全事故,因此需要通过 RAG、Grounding(基于证据的生成)、检索引用、置信度估计和人工审核来缓解。

工程上,常见做法包括:要求模型显式标注不确定、引用来源链接、使用检索增强生成(RAG)与 Grounding,以及在关键任务中引入多模型交叉验证或规则引擎兜底。

打开 GitHub 界面,修改后直接生成 PR

💬 用户评论与个人笔记