LoRA 微调结果不佳

Result for LoRA fine-tuning not good

提问人:user497032 提问时间:10/22/2023 最后编辑:ddauser497032 更新时间:10/24/2023 访问量:21

问:

我正在微调骆马 7b 模型。

我使用 1,000 个样本来微调 LoRA,如下所示:

{"instruction": "the weather is hot, please open air conditioner.", "input":"", "output": "open air conditioner"}
{"instruction": "it's too hot, could you open air conditioner please", "input":"", "response": "open air conditioner"}

当我完成微调时,我只用指令的输入来测试模型,我得到类似的东西:“好的,我会打开空调”,这是不正确的。我只需要格式化的指令。

当我微调模型时,我使用指令+响应作为input_ids。当我完成微调并测试模型时,我使用指令作为input_ids。

1,000个样本太少了吗?或任何其他可能的原因?

谢谢。

tokenize prompt large-language-model fine-tune

评论


答: 暂无答案