未来大语言模型(LLM)的幻觉问题能被彻底解决吗?
2024-04-10 阅读 100
短期内很难彻底根除。原因在于当前大模型本质上是基于概率分布生成语言,训练数据本身含噪、且对世界状态没有绝对可证的内部表征,所以会在开放式问题上产生“有道理但不准确”的输出。可以通过更强的知识检索与检验层、符号/因果组件、明确的不确定性输出、强化的训练与人类监督等手段大幅降低幻觉发生率,特别是在高风险场景实现可控性。总体上,完全消失不太现实,但可以把风险降到可接受甚至很低的水平。
更新于 2026年01月03日