热门

最新

红包

立Flag

投票

同城

我的

发布
devlewistunstall
Dev想睡死
2 年前
truedevlewistunstall

TRL现在支持广义知识蒸馏,可以将🐳大型语言模型压缩成🐭小型语言模型!

这是如何工作的呢?

在标准知识蒸馏中,学生模型在一组固定的输出序列上进行训练,这些序列通常由较大、性能更优的教师模型生成。

这会导致训练-推理分布不匹配,因为学生模型在推理期间看到的部分序列与训练期间看到的不同。结果,与像PPO这样的强化学习方法相比,性能会大大下降😢

解决方案是对学生模型自生成的序列应用知识蒸馏。这会创建一个与教师模型的反馈循环,使学生模型在训练期间可以迭代改进💪

我喜欢这种后训练方法的原因是:

⚖️ 不需要偏好标签,只需要提示
📈 现在我们有几种大模型和小模型的家族可以进行蒸馏:Llama 3、Mixtral、Gemma-2和Qwen2.5

要在TRL中尝试这种方法,只需运行 `pip install -U trl`

享受吧!

CSDN App 扫码分享
分享
8
87
  • 复制链接
  • 举报
下一条:
谁说的单卡能跑qwen2.5 14B……跑不了一点儿……一步一卡卡的潇洒,十步一停停的有型。
立即登录