我们能教会语言模型内化连锁思考(CoT)的推理步骤吗?我们发现了一种简单的方法:从一个已经通过CoT训练的语言模型开始,逐渐移除CoT步骤并进行微调,迫使语言模型内化推理过程。论文链接:https://bit.ly/internalize_step_by_step与@谭anna @捉刀鱼 完成 1/5