热门
最新
红包
立Flag
投票
同城
我的
发布
挑战在了解构建以LLM为中心的代理的关键思想和演示之后,我开始看到一些共同的限制:有限的上下文长度:受限的上下文容量限制了历史信息、详细说明、API调用上下文和响应。系统的设计必须与这种有限的通信带宽配合工作,而像自我反思这样的机制可以从很长甚至无限的上下文窗口中获益良多。虽然向量存储和检索可以提供对更大知识库的访问,但它们的表示能力不如完全注意力强大。长期规划和任务分解的挑战:在漫长的历史上进行规划并且有效地探索解决方案空间仍然具有挑战性。当面临意外错误时,LLM很难调整计划,使它们与不断试错学习的人类相比不太稳健。自然语言接口的可靠性:当前的代理系统依赖于自然语言作为LLM和记忆、工具等外部组件之间的接口。然而,模型输出的可靠性是有问题的,因为LLM可能会出现格式错误并偶尔表现出叛逆行为(例如拒绝遵循指令)。因此,许多代理演示代码都集中在解析模型输出上。
https://mp.weixin.qq.com/s/zxRddL3ic1ZUGf75Ysj-Sg
人工智能时代
杭州市余杭区
CSDN App 扫码分享
1
3
打赏
- 复制链接
- 举报
下一条:
ChatGPT 插件和 OpenAI API 函数调用是具有工具使用能力的 LLM 在实践中的最好的例子。工具 API 的集合可以由其他开发人员提供(如插件中的情况),也可以自定义(如函数调用中的情况)。「HuggingGPT」是一个框架,它使用 ChatGPT 作为任务规划器,根据每个模型的描述来选择 HuggingFace 平台上可用的模型,并根据模型的执行结果总结生成最后的响应结果。该系统由下面四个阶段组成:(1) 「任务规划」:LLM 作为大脑,将用户请求解析为多个任务。每个任务都有四个属性:任务类型、ID、依赖关系和参数。他们使用少量示例来指导 LLM 进行任务解析和规划。具体指令如下:AI助手可以将用户输入解析为多个任务:[{"task": task, "id", task_id, "dep": dependency_task_ids, "args": {"text": text, "image": URL, "audio": URL, "video": URL}}]。"dep"字段表示前一个任务的ID,该任务生成了当前任务所依赖的新资源。特殊标记“-task_id”指的是具有任务ID为task_id的依赖任务中生成的文本图像、音频和视频。https://mp.weixin.qq.com/s/zxRddL3ic1ZUGf75Ysj-Sg