这是用户在 2024-3-29 16:26 为 https://eqih9dgdyve.feishu.cn/docx/YBUtdS00xobmffxPZ3Kc4qUfngh 保存的双语快照页面,由 沉浸式翻译 提供双语支持。了解如何保存?
输入“/”快速插入
💻
07 第六周:复杂 AI Agent 的基础 + 大语言模型高级应用(下)
Erlich
昨天创建

正在以画中画形式播放

播放
00:00 / 54:41 直播
22:07
22:07
进入全屏
画中画
1080p
  • 360p
  • 1080p
  • 原画
1x
  • 2x
  • 1.5x
  • 1x
  • 0.75x
  • 0.5x
点击按住可拖动视频
第六周课程.mp4
第六周课程
📚
三、海底捞员工四不准
1.
不准给脸色给客人看,不准与客人争吵;
2.
不准因客人的打扮而轻视客人、议论客人;
3.
不准因与客人认识知道客人的过去而议论客人;
4.
客人掉在餐厅的物品不能容纳为己有,因主动上交吧台。
5.
排队吃饭,必须排队,不准抢先;
6.
节约粮食;
7.
吃饭时脚不准踩踏桌椅,必须放在地上,如有违反清理所有饭堂桌椅;
8.
打饭时必须给打饭的师傅说声“谢谢”;
9.
未经批准不准离开培训基地,如有违反直接除名;
10.
男生仪容要求:必须留寸头,剔须,剪指甲;女生仪容要求:发不过眉,不准戴任何金银首饰,留指甲,已婚女士可以佩戴一个结婚戒指。
2.
用户输入查询信息「在海底捞工作,男生可以留长头发吗?」。这一步会将用户的提问也转化成向量。
3.
对业务知识和用户提问,进行向量相似度匹配,就实现了语义搜索,会得到第10条的结果。
4.
最后组装出来的 Prompt 就是类似的内容
原 Prompt :
💡
##要求:
你是一位海底捞的智能客服,你了解基本的用餐礼仪,并且可以根据海底捞以下的培训知识,来指导用户。
##海底捞培训知识:
{context}
##用户当前的问题:
{question}
##请根据海底捞的培训知识,来回答用户。
实际拼接之后的 Prompt:
💡
##要求:
你是一位海底捞的智能客服,你了解基本的用餐礼仪,并且可以根据海底捞以下的培训知识,来指导用户。
##海底捞培训知识:
男生仪容要求:必须留寸头,剔须,剪指甲;女生仪容要求:发不过眉,不准戴任何金银首饰,留指甲,已婚女士可以佩戴一个结婚戒指。
##用户当前的问题:
在海底捞工作,男生可以留长头发吗?
##请根据海底捞的培训知识,来回答用户。
这就是为什么 RAG 其实背后还是在做 Prompt 的原因。我们只是通过一些方法,把搜索的结果拼接到 Promot 里,最后把结果输出出来。
ART - 自动推理并使用工具
ART 的英文是 Automatic Reasoning and Tool-use,ART 这个方法也是一篇来自 2023 年的论文提出来的。它的核心工作原理:
接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范内容。
在测试中,调用外部工具时,先暂停生成,将工具输出整合后继续接着生成。
理解 ART 的基础
PeG 语法:parsing expression grammar (PeG) 是 Bryan Ford 在 2004 年提出的形式语法,专为解析任务设计,尤其是在计算机语言和数据格式的解析中。PeG的核心思想是使用一系列的规则来匹配输入文本,过去常用在搜索引擎之类上。现在大语言模型天然就有很强的理解能力,所以 PeG 的要求更多的变成借助这种思维,来帮助大语言模型来实现更好的推理。
"Create a shopping list based on the following items and quantities:
1. Item: Apple, Quantity: 4
2. Item: Bread, Quantity: 1
3. Item: Milk, Quantity: 2
Please format the list as follows:
- [Quantity] of [Item]"
大模型本身是不使用 PeG 语法的,但是我们可以尝试利用这种方法来优化提示词,进而提高大模型的表现。
示范内容:它能实现更好的效果的原因是它人工编写了很多的案例库作为示范内容。大模型可以先去选择最适合的示范内容,用 few-shot 来进行学习,这样就可以实现更高质量的 few-shot,进而达到更好的效果。
工具库:能实现更好的大模型返回结果,还需要人工去编写一些工具库给大模型使用。如果泛化到真实案例当中,我们需要编写很多的工具。
但并不是使用 ART 后所有的任务方面都会表现的更好。在编程这类场景下,使用 ART 方法非但不能提高效果,还会降低 Benchmark。
ReAct 框架
ReAct 是一个将推理和行为与 LLMs 相结合通用的范例。它是指导大语言模型推理和行动的一种思维框架。这个思维框架是 Shunyu Yao 等人在 2023 年《 SYNERGIZING REASONING AND ACTING IN LANGUAGE MODELS》提出来的。
ReAct 就是链接 Reasoning(推理)和 Acting(行动)的框架。这篇文章里有个很重要的启发:
大语言模型可以通过生成推理痕迹和任务特定行动来实现更大的协同作用。
具体来说就是引导模型生成一个任务解决痕迹:观察环境-进行思考-采取行动。
框架的演化:
什么是任务解决痕迹
因为我们一直在说大语言模型本质是预测,我们一直在引导大语言模型如何实现更好的预测。能生成刚好的结果的最好的办法就是能在生成结束前就可以生成更好的结果。但是如何保证大语言模型可以在不断生成的过程当中有更好的结果呢?
评论(0)
跳转至首条评论
0
 |