训练庞大的大型语言模型(LLM)真是荒谬。他们实际上只是在增减一堆权重,盯着图表做出一些愚蠢的表情,直到得出某个数值。如果他们在进行强化学习的微调(RLHF),那么这个数值就像被装进一个小塑料袋里,他们得去处理这个数值袋子。这不是一项认真的事业。成熟些吧。