热门
最新
红包
立Flag
投票
同城
我的
发布
@AI天才研究院:llama2 开源700 亿参数模型,推动社区开放进程相比 LLaMA-1,LLaMA-2 将模型尺寸提升到了 700 亿参数,搭配更海量的训练数据,LLaMA-2(70B) 获得了客观的性能提升,在多个评测集上达到了和 ChatGPT 近似的性能。论文也提供了 LLaMA-2(70B) 与闭源模型(GPT-3.5,GPT-4,PaLM, PaLM-2)的性能对比,ChatGPT 在 MMLU 上获得了 70.0 的分数,与 LLaMA-2(70B) 的 68.9 的分数相差无几。相信在社区的努力下,开源模型离 ChatGPT 的水平会越来越近。https://mp.weixin.qq.com/s/Eqh-ED4BgiR4BBQQbwXAmA
CSDN App 扫码分享
评论
点赞
打赏
- 复制链接
- 举报
下一条:
上班了哦