Llama3 V 还未发布。由于交叉注意力架构,它的规模预计会显著增大(12.5B 对比我们的 8.5B)。一些重叠的基准测试,他们和我们相比:MMMU: +3(0-shot CoT 而我们是 0-shot)DocVQA: -3.3TextVQA: +3.3