热门

最新

红包

立Flag

投票

同城

我的

发布
weixin_37992011
imxiaohu
1 年前
trueweixin_37992011

Google的这项最新研究成果非常厉害。Gemini 1.5 Pro 应该采用了这项技术。Infini-attention压缩记忆技术可以使大型语言模型处理无限长的输入内容,同时不会增加内存和计算资源的消耗。

实验结果表明:使用这项技术可以成功将一个10亿参数的模型的上下文长度提升至100万。

当应用到80亿参数模型上时,该模型能够处理高达500K的书籍摘要任务。

详细介绍:
https://xiaohu.ai/p/5927
论文:https://arxiv.org/abs/2404.07143

CSDN App 扫码分享
分享
评论
98
  • 复制链接
  • 举报
下一条:
色彩渐变
立即登录