热门

最新

红包

立Flag

投票

同城

我的

发布
techsavvyarankomatsuzaki
KKyujin_
2 年前
truetechsavvyarankomatsuzaki

InternLM2 技术报告

- 提供了一个开源的大型语言模型(LLM),参数规模介于18亿到200亿之间,训练数据超过2万亿个token
- 配备了通用问答(GQA)能力,并在多达32k的上下文中进行了训练
- 提供了中间检查点和关于训练框架及数据集的详细描述

https://arxiv.org/abs/2403.17297

CSDN App 扫码分享
分享
评论
102
  • 复制链接
  • 举报
下一条:
Intel在其数据中心GPU上展示了全融合多层感知机Intel Max 1550在推理上的性能比H100 GPU高出最多2.84倍,在训练上高出1.75倍https://arxiv.org/abs/2403.17607
立即登录