Many-shot jailbreaking利用了上下文学习,在一个单一的提示符中涉及到用户和AI之间的虚假对话。在这个虚假对话中,AI会迅速回答用户提出的潜在有害的查询。阅读完整博客:https://bit.ly/4b2ljJ8