利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
2023-06-14 阅读 12
用LangChain 做专属知识库避免幻觉,核心是用检索来“约束”生成并增加校验。实践上要用高质量的向量/检索器并调好 k、chunk_size/chunk_overlap 和重排(MMR 或 BM25+semantic rerank),用 RetrievalQA 或自建检索-生成链并开启 return_source_documents,把提示词写明“只能基于下列文档回答,找不到就明确说不知道”,把 LLM 温度降到 0–0.2,限制生成长度。生成后再用第二个验证器(NLI/entailment 模型或另一个 LLM)验证答案是否被文档支持,若不支持则拒绝回答或回退到人工审核。对关键领域可以做 RAG 微调或加入示例训练,让模型学会在证据不足时拒答。
更新于 2025年12月12日