微软崔宏禹称「GPT-4 以后,不建议再用微调进行特定领域的模型适配 」,如何看待此事?
2023-05-29 阅读 9
崔宏禹的意思是,随着大型模型在通用能力、提示学习和检索增强(RAG)上表现越来越好,传统把模型权重直接微调来做领域适配的必要性下降了:微调成本高、版本与维护复杂、容易丢失上游能力或引入偏差,而通过提示、检索或参数高效调优(如LoRA、adapter)通常能在不改动基座模型权重的前提下达成目标。
但这不是绝对禁令:在离线/边缘部署、有硬性延迟或隐私合规要求、模型体量受限或任务极度专化时,微调或轻量微调仍然有意义。实务上建议优先尝试提示+RAG或参数高效方法,把微调当作权衡后根据成本、性能和合规性再决定的备选方案。
更新于 2025年12月12日