AI | 让大模型自己去“思考”吧!

大模型向量数据库机器学习

大家好,我是老三,正在不断地学习 AI 知识,用 AI 来武装自己。

这是我学习记录的第4篇文章。

今天继续为大家介绍写好提示词的,本篇文章为策略三:给模型更多时间“思考”

前言

在我们与大模型进行交流时,采取的策略之一是“给予模型更多时间进行思考”。但这并不是说让模型物理上的运算时间变长,而是通过构建精心设计的提示词(prompt),促使大模型进行更为深入的分析和推理。

简而言之,我们不仅仅是要求它寻求直接的答案,而是鼓励它展现出思考的过程,激发它的“思维活动”。

这种策略体现在通过设置一系列逐步推理的步骤或逻辑过程,引导模型生成更为丰富和详尽的内容。

这就是说我们会要求模型不仅给出答案,同时也展示其推理路径,考量不同角度和可能性。这样下来模型能够提供更加细致、仿佛经过人类式深思熟虑的回应。

我们在设计提示时运用这一策略,目的是提升大模型回答的深度和质量。

写好提示词的策略之三:给模型更多时间“思考”

  1. 引导模型自己寻找解决方法

  2. 通过内心独白或连串问题掩饰模型的思考过程

  3. 问模型在之前的步骤是否有遗漏

实战示例:

1)引导模型自己寻找解决方法

这涉及到构建prompt,激励模型不仅仅给出一个直接的答案,而是展示其解决问题的过程。例如,你可以要求模型列出解决特定问题的步骤,或者提出一种假设然后解释为什么这个假设是合理的。

比如说让大模型帮助我们批改学生的作业。

Prompt1:

首先,你需要自己找出问题的答案,之后再将你自己的答案和学生的答案做一下比较,判断学生的答案是否正确,给出清晰正确的解释。在你没有自己解答完问题之前,不要对学生的答案做出判断。

题目:笼中装有鸡和兔若干只,共100只脚,若将鸡换成兔,兔换成鸡,则共92只脚。笼中原有兔、鸡各多少只?学生答案:鸡10只,兔子30只

picture.image

picture.image

从上面的对话可以看出,大模型根据我们的提示词,把题目的解答过程展示了出来并对学生的答案进行了评估。

2)通过内心独白或连串问题掩饰模型的思考过程

这种策略是构建一种模拟内在推理过程的提示词,就像大型模型正在经历一种思维独白。

这样做不仅赋予了模型输出的内容一种似乎经过周密考虑的质感,而且还通过一系列紧密相连的问题,每一个问题都是在前一个问题的答案基础上提出的,能有效激发大模型的深层思考。

Prompt2:

按以下步骤回答用户问题

第一步:先自己独立解决问题,不要依赖学生的答案,因为学生的答案可能有误。

第二步:将你的答案和学生的答案进行比较,判断学生的答案是否正确。

第三步:假如学生的答案不正确,想出一个不直接透露答案的提示。

第四步:假如学生的答案不正确。将第三步的内容以“提示:”作为前缀

要求:第一步、第二步、第三步的输出内容不要展示给用户,只需要把第四步展示给用户即可。

picture.image

从上面可以看出,大模型将推理的过程隐藏了,只给我们展示了提示的内容。

3)问模型在之前的步骤是否有遗漏

为了确保分析的全面性,我们需要大模型回顾并重新审视其已经提出的解决方法。这不仅促进了大模型对先前推理的深入评估,还鼓励它进行必要的自我修正,以及补充任何遗漏的信息。

通过让大模型自我完善,大模型能够向我们提供更丰富、更准确的信息,从而极大地增强了我们对问题的理解。

Prompt3:还有遗漏的吗?

picture.image

picture.image

通过上述方法追问大模型,大模型又给我们提供了额外的一些技巧供我们参考。

今天的分享就到这了,希望我的分享对小伙伴们有所帮助。

点击上方“老三的 AI 充电站”关注我有更多的干货分享哦

有帮助的小伙伴记得点个“在看”

有一块交流学习的小伙伴可以链接我

下面是我的二维码

picture.image

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论