微软崔宏禹称「GPT-4 以后,不建议再用微调进行特定领域的模型适配」,有哪些需要用户了解的?
2023-05-28 阅读 10
这句话的大意是:随着像 GPT‑4 这样的基础大模型能力和可控性提升,传统把整个模型微调以适配某个垂直场景的做法变得不再是首选。需要了解的是原因包括成本高、维护和安全负担大、容易导致通用能力退化与模型碎片化;替代方式有更偏好的提示工程、指令微调/强化学习(平台端已做)、检索增强生成(RAG)、以及参数高效适配方法(如 LoRA/adapter)或工具/函数调用等;实际选择取决于需求:若只需把握上下文和知识,优先用检索或提示;若必须离线/极低延迟或对模型权重有特殊限制,才考虑全量微调。无论哪种方式,都要做好验证、持续监控和数据治理。
更新于 2025年12月11日