热门

最新

红包

立Flag

投票

同城

我的

发布
weixin_41975548
umiyuki_ai
1 年前
trueweixin_41975548

可能是时候开始尝试对LLM进行微调了。根据这篇文章,如果有10GB的VRAM,就可以用PEFT来训练Llama3-8B的QLoRA模型。https://mlops.community/budget-instruction-fine-tuning-of-llama-3-8b-instructon-medical-data-with-hugging-face-google-colab-and-unsloth/

CSDN App 扫码分享
分享
评论
11
  • 复制链接
  • 举报
下一条动态
立即登录