谷歌搞了个1.6万亿参数的语言模型继GPT-3问世仅仅不到一年的时间,Google重磅推出Switch Transformer,直接将参数量从GPT-3的1750亿拉高到1.6万亿,并比之前最大的、由google开发的语言模型T5-XXL足足快了4倍。原文链接:https://venturebeat.com/2021/01/12/google-trained-a-trillion-parameter-ai-language-model/