发布于 : Apr 03, 2024
Apr 2024
Assess
我们一如既往地提醒大家,非必要情况下,不要着急对大语言模型进行微调 —— 这将增加显著的成本和专家资源负担。在必须微调的情况下,我们推荐LLaMA-Factory 。它是一个开源的、易于使用的 LLMs 微调和训练框架。支持LLaMA、BLOOM、Mistral、Baichuan、Qwen 和ChatGLM,它使微调等复杂概念相对容易理解。我们的团队成功地使用了LLaMA-Factory 的 LoRA 调优来训练 LLaMA 7B 模型。如果您需要进行微调,这个框架是值得评估的。