Google的这项最新研究成果非常厉害。Gemini 1.5 Pro 应该采用了这项技术。Infini-attention压缩记忆技术可以使大型语言模型处理无限长的输入内容,同时不会增加内存和计算资源的消耗。实验结果表明:使用这项技术可以成功将一个10亿参数的模型的上下文长度提升至100万。当应用到80亿参数模型上时,该模型能够处理高达500K的书籍摘要任务。详细介绍:https://xiaohu.ai/p/5927论文:https://arxiv.org/abs/2404.07143