🥁 Llama3已发布 🥁今天提供8B和70B模型。8000上下文长度。在自建的24000 GPU集群上,使用15万亿token进行训练。在各种基准测试中表现出色,Llama3-8B在某些情况下的表现甚至超过了Llama2-70B。接下来的几个月里将推出更多版本。https://llama.meta.com/llama3/