InternLM2 技术报告- 提供了一个开源的大型语言模型(LLM),参数规模介于18亿到200亿之间,训练数据超过2万亿个token- 配备了通用问答(GQA)能力,并在多达32k的上下文中进行了训练- 提供了中间检查点和关于训练框架及数据集的详细描述https://arxiv.org/abs/2403.17297