这种“AI只是因为没有实际成果才不被信任,之后会被信任”的说法也有可能成立,但LLM(大型语言模型)从其机制上来看,也存在从稳定性走向不稳定性的可能性。Yann LeCun 先生也说过,LLM仅仅是通过概率生成词元,所以会不断走向错误。LLM的学习是为了降低损失,也就是说,LLM不可避免地会出现信息损失(损失是不可避免的),它所能做的或许只是尽力减少损失而已。