热门

最新

红包

立Flag

投票

同城

我的

发布
everydaynews
每日值得看
2 年前
trueeverydaynews

MIT 博士生发现新方法“LASER”

MIT 博士生发现,只需对 Transformer 的特定层进行一种非常简单的修剪,即可在缩小模型规模的同时显著提高模型性能。效果主要体现在文本理解任务上,最高可达 30%。除了文本理解,它也适用于强化学习。这个操作只需在模型训练完成之后进行,不需要额外的参数和数据。

该方法全称“Layer-Selective Rank Reduction”,简称“LASER”。这是一种选择性地去除 LLM 权重矩阵高阶组件(components)的干预措施,操作就在 Transformer 模型的特定权重矩阵和层中进行。研究发现,即使完全去除 90% 以上,模型性能一般也不会下降。

AI资讯
CSDN App 扫码分享
分享
1
4
打赏
  • 复制链接
  • 举报
下一条:
计算机毕业设计选题推荐-SpringBoot 公益服务平台 原创疯狂行者专注于Java技术领域技术交流,不仅是技术交流, 更是思维的碰撞。深入了解请点击下方链接:https://blog.csdn.net/QinTao9961220/article/details/135328882?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22135328882%22%2C%22source%22%3A%22QinTao9961220%22%7D
立即登录