热门

最新

红包

立Flag

投票

同城

我的

发布
weixin_30719609
樽盖待揭
2 年前
trueweixin_30719609

Flash Attention 3 发布了,在长上下文长度下具有更快和更好的效率,H100s 的利用率从 35% 增加到 75%。此外,在 FP8 基准测试中速度提升了 1.5 倍到 2 倍,误差率更低,达到了 2.6 倍!@小禧xx 和团队的出色工作。

CSDN App 扫码分享
分享
评论
12
  • 复制链接
  • 举报
下一条:
很高兴分享3篇将在Main上出现的论文!🎉1) 一个促进对话的数据集 @Eunique One2) 一项关于LLMs+讲故事学习复杂法律概念的研究 @Kwanghue Sun3) 一项关于LLM对其自身预测信心的研究 @冯遵宇详细信息在下面的线程中👇
立即登录