在LLM的发展史中,三分天下已暂定,目前Decoder-Only明显胜出Encoder-Only与Encoder-Decoder两方。Encoder-Only:以谷歌的BERT为代表。Encoder-Decoder:以Meta的BART、谷歌的T5、清华大学的GLM为代表。Decoder-Only:以OpenAI的GPT、谷歌的Bard、Meta的LLaMA、DeepMind的Chinchilla、Anthropic的Claude为代表。自从GPT3出来之后,基本就已经可以确定Decoder-Only的路线已经占据了优势,当然这并不是说另外两条路线就做不出大语言模型了,而是GPT3和后期的ChatGPT的出现,让人们对大语言模型的表现力期待更高,同时也让研发大语言模型的天花板变得更高,所以从投资方向上来说,在其他另外两条路线上的投资人都在止损撤出,把资金用来主攻Decoder-Only方向。从国内的情况来看,百度的文心一言是基于BERT进行再开发的,至于百度后期是继续研发Encoder-Only路线,还是回归主流走Decoder-Only路线,目前还没有确切的消息。腾讯则是传闻在很早之前就已经砍掉了大语言模型的研发,现在基本上看不到腾讯的大语言模型的消息。阿里巴巴的通义千问是基于GPT的路线开发的,在算力端有阿里云计算的支持,to B应用端有6亿用户的钉钉,目前是BAT中表现最好的一家。科大讯飞的星火认知模型是基于开源的LLaMA模型做的二次开发,也是Decoder-Only路线。昆仑万维的天工模型也是Decoder-Only路线的二次开发。360、商汤等公司目前还没有披露是哪条路线,希望未来能披露更多信息。现在来看,“GPT派”是占据上风,可见如果在技术上选择了不是能够快速见效的路线,短期内投入太多就很难得到回报,投资人可能会等不起,当然也不排除未来“BERT派”在技术上创新,重新扳回一局。