热门
最新
红包
立Flag
投票
同城
我的
发布
CSDN App 扫码分享
2
25
- 复制链接
- 举报
下一条:
Twitter原文:【MagpieLM-4B-Chat-v0.1 和 MagpieLM-8B-Chat-v0.1 发布:突破性的开源小型语言模型,用于 AI 对齐和研究华盛顿大学和艾伦人工智能研究所(Ai2)最近通过发布其尖端语言模型:MagpieLM-4B-Chat-v0.1 和 MagpieLM-8B-Chat-v0.1,对 AI 研究界做出了重要贡献。作为更大的 MagpieLM 项目的一部分,这些模型专门设计用于满足对齐语言模型的需求,这些模型能够执行高级文本生成任务,同时遵循人类的价值观和期望。这些模型在 Hugging Face 上免费提供,并因其性能和透明性在 AI 研究界引起了广泛关注。MagpieLM-Chat 模型,MagpieLM-4B-Chat-v0.1 和 MagpieLM-8B-Chat-v0.1,是两种新的语言模型,经过优化以实现对齐。这意味着它们经过专门训练,确保其输出符合人类指示、伦理标准和行为期望。8B 版本是一个80亿参数模型,而4B版本是一个精简版本,尽管体积缩小,但仍然高效。这两个模型都是使用一种称为 Magpie 的独特技术生成的合成数据进行训练的。该方法专门开发用于增强大型语言模型(LLM)的对齐性。通过利用合成数据,Magpie 团队能够训练这些模型,以更对齐、可预测的方式理解和响应人类指示。这些模型基于 Meta 的 LLaMA-3.1-8B,这是一个最先进的 LLM,而 4B 版本则由 NVIDIA 精简,进一步优化其性能而不牺牲质量。阅读全文: https://www.marktechpost.com/2024/09/20/magpielm-4b-chat-v0-1-and-magpielm-8b-chat-v0-1-released-groundbreaking-open-source-small-language-models-for-ai-alignment-and-research/• 4B: https://huggingface.co/Magpie-Align/MagpieLM-4B-Chat-v0.1• 8B: https://huggingface.co/Magpie-Align/MagpieLM-8B-Chat-v0.1• SFT 数据集: https://huggingface.co/datasets/Magpie-Align/MagpieLM-SFT-Data-v0.1• DPO 数据集: https://huggingface.co/datasets/Magpie-Align/MagpieLM-DPO-Data-v0.1• 集合: https://huggingface.co/collections/Magpie-Align/magpielm-66e2221f31fa3bf05b10786a• Magpie 论文: https://arxiv.org/abs/2406.08464@桉桦 @明智之光 @Peatles @十月飘零】