LLM做任务型对话,跟ChatGPT出来之前 有哪些区别?
2023-08-31 阅读 5
核心区别是架构与能力上的转变。以前做任务型对话常用明确的流水线:意图识别、槽位填充、对话状态跟踪、策略学习、模板化生成,需求大量标注、针对单一领域优化,泛化差。ChatGPT时代的LLM靠海量预训练+指令微调(和RLHF)能零样本/少样本完成多种任务,语言流畅、多轮连贯性强,能更灵活地理解模糊指令并生成自然响应。与此同时,出现了长上下文、检索增强生成、工具/插件调用等能力,使得与外部知识库、API联动更容易,但也带来计算成本高、延迟、可控性与幻觉问题。总体上,以前更可控、结构化,LLM更通用、灵活但需注意工程化约束与风险管理。
更新于 2025年12月25日