Google推出Transformer 2:- 将注意力、递归、检索、前馈神经网络(FFN)统一到一个单一模块中- 在计算效率方面比原版Transformer高出20倍,并且性能相当- 能够高效处理1亿个上下文长度项目:https://tinyurl.com/59upc7v6摘要:https://tinyurl.com/3nw25nz2