如何避免本地部署的ai语言模型狂吐Alice Bob?
2023-06-17 阅读 4
先从输入和解码控制做起:在提示里明确要求不要使用“Alice/Bob”并把它们作为停止词或用生成接口的 bad_words_ids/bad_tokens 参数屏蔽;把温度降低、top_p 减小或用贪心/束搜索减少随机性,并启用重复惩罚(repetition_penalty)。如果是自己训练/微调的模型,要清理训练数据中大量对话脚本并在微调时用指令数据强化不出现特定人物名的行为。还可以在解码时动态检查并替换或截断含有“Alice/Bob”的输出。这样结合提示约束、解码过滤和数据层面的改进,能有效避免“狂吐”特定名字。
更新于 2025年12月14日