我对大型语言模型(LLMs)最常见的使用场景是:通过稀疏的信息来回想事物例如:“我曾经读过一篇关于无限债务的文章”或“那种像鞋子但有电动机的产品是什么”奇怪的是,这种使用场景常识上认为LLMs不擅长,而Google和@lllll云平也不擅长,因为它们不是“RAG”(检索增强生成)使用场景,而是依赖于对模型整个知识的总结。