热门
最新
红包
立Flag
投票
同城
我的
发布
元认知比链式思维更胜一筹。最近的两篇论文表明,元认知显著提高了大语言模型(LLM)的性能,同时也提升了人类的学习和思维能力。
在一项关于数学能力的研究中,LLM将细分的数学技能分两步标记和归类为更广泛、更具解释性的类别。通过将数千个具体技能减少到一个较小、更易管理的集合,这改善了问题的解决。研究发现,在解决竞赛级数学问题(MATH数据集)时,相较于标准的链式思维(CoT)提示,性能提升了11.6%。
https://arxiv.org/abs/2405.12205
另一项关于使用“元认知提示”的研究,通过引导LLM完成结构化步骤来模仿人类反思性推理,以解释输入、做出初步判断、评估该判断,然后评估最终决策的信心。
在特定领域的数据集(如生物医学和法律)以及零样本和少样本设置中,性能提升尤为显著。GPT-4显示了最大的改进,这可能是由于它能够“理解”元认知过程。
https://arxiv.org/abs/2308.05342
例如,通过Reflection-70B显示的结果,这些方法在显著推动LLM性能方面发挥了重要作用。
不仅有望将人类的元认知方法应用于LLM,还有望让LLM进化出优越的元认知结构,供人们在自己的思维中应用。
并且,正如一贯所强调的,我们需要考虑这些元认知过程中的哪些部分最好由人类和AI分别完成,以实现下一层次的人类与AI的协同表现。
CSDN App 扫码分享
评论
9
- 复制链接
- 举报