热门

最新

红包

立Flag

投票

同城

我的

发布
weixin_30394975
Minchern
2 年前
trueweixin_30394975

CantTalkAboutThis: 让语言模型在对话中保持话题相关

在为使语言模型能够在对话中保持话题相关性这一领域,存在着显著的数据缺口——这对于将聊天机器人部署到生产中是一个关键方面。我们介绍了CantTalkAboutThis数据集,以帮助语言模型在面向任务的互动中保持专注于当前话题。该数据集由不同领域的广泛对话主题组成的合成对话构成。这些对话中穿插着有意转移聊天机器人预定义话题的干扰轮次。

“所有通用目的的大型语言模型(Large Language Models, LLMs)在带有人工注释干扰者的对话中表现出显著的性能下降,如表2所示。我们在合成数据上训练的STAY-ON-TOPIC-43B模型也显示出稍差的结果,但比所有基线模型表现出大幅度的提升”

合作作者
@赵浅风
论文链接:https://arxiv.org/abs/2404.03820

(未经同行评审)

CSDN App 扫码分享
分享
评论
点赞
  • 复制链接
  • 举报
下一条:
LLM安全基础入门:迎头赶上https://kleiber.me/blog/2024/03/17/llm-security-primer/作者:@冯刚廷
立即登录