热门

最新

红包

立Flag

投票

同城

我的

发布
techsavvyak
_akhaliq
2 年前
truetechsavvyak

内容指出,在大规模训练数据中对这些样本的记忆。例如,Sphinx-X-MoE在没有访问图像的情况下在MMMMU上获得了43.6%的成绩,超过了其LLM骨干的17.9%。这两个问题都导致了对实际多模态收益的误判,并可能

CSDN App 扫码分享
分享
评论
7
  • 复制链接
  • 举报
下一条:
在没有任何视觉输入的情况下,在MMMMU基准测试中表现出色,并且在六个基准测试中平均超过20%胜过随机选择的基线。2)在LLM和LVLM训练中存在非故意的数据泄露。即使没有视觉信息,LLM和LVLM仍能回答一些需要视觉的问题。
立即登录