突发!DeepSeek官方推荐用法,速来学习!

大模型向量数据库云通信

picture.image

今天下午,DeepSeek的官方推特发布了一则信息,为大家如何更好地使用DeepSeek-R1提供了一些推荐设置,其中前两点是我们普通玩家都需要注意的。

下面让我们逐一来看看吧~

1.No system prompt

System Prompt(系统提示)是大型语言模型(如ChatGPT)中用于设定模型行为、角色或对话规则的初始指令。它通常被预先嵌入或置于对话开头,以指导模型如何生成后续回答。

与之相对的概念即User Prompt(用户提示),即你提出的问题、下达的指令本身。

System Prompt的常见用法主要包括:

角色设定

  • • 例: "你是一位医学专家,用通俗语言解释疾病。"
  • • 通过明确角色,使模型遵循特定领域的专业性和风格。

风格控制

  • • 例: "请以正式/幽默/简洁的方式回答。"
  • • 调整语气、格式(如分点作答)或语言(如只用中文)。

内容限制

  • • 例: "仅提供已验证的信息,否则回复‘不确定’。"
  • • 避免模型编造内容或超越权限。

效率优化

  • • 减少重复性指令,保持对话一致性,如客服场景预设职责范围。

一般而言,通过合理设计System Prompt,可以显著提升模型输出的定向性和实用性,使其更贴合特定场景需求。

然而,此处DeepSeek团队明确建议不要使用System Prompt,因吹斯听。

可能是由于模型的训练数据结构的原因?或者为了避免用户过多地限制作为推理模型的DeepSeek-R1的发挥?

反正听官方建议总没有错啦,实在不行自己实践实践,用两套prompt对比感受下就好了~

2.temperature:0.6

在大语言模型中,temperature(温度)是一个控制生成文本多样性和随机性的参数。它通过对模型输出的分布进行平滑或加强来影响生成内容的风格。

如果你使用的是Cherry Studio等工具的话,可以在设置中对温度进行调整。

picture.image

以1为分界线,温度越高,模型输出内容的确定性越低,越偏向随机和多样化,也就更容易产生出一些富有创意、惊喜的内容,因此高温度一般适用于需要创意或者探索更多可能性的场合,如诗歌、故事的创作等。

相反的,温度越低,模型越倾向于输出更加保守、确定的输出,生成的内容将更符合上下文和用户预期,因此适用于需要稳定性和逻辑性的场合,如技术文档、商务报告等。

这里可以看到,DeepSeeK官方建议的使用温度是0.6,与DeepSeeK-R1冷酷无情地推理模型的人设还是基本相符的。

(但其实我一直用的是默认温度1,都没有感觉出有什么不好的地方......)

3.Official prompts for search & file upload

没有什么好多说的,就是关于搜索与上传功能的两段prompt示例,咱们一般用户其实不大会用到的,大家看看就好:

  • • 关于给DeepSeek-R1传文件的官方prompt(花括号是你需要替换的内容)
  
[file name]: {file\_name}  
[file content begin]  
{file\_content}  
[file content end]  
{question}
  • • 关于网络搜索的官方prompt(中文版)
  
# 以下内容是基于用户发送的消息的搜索结果:  
{search\_results}  
在我给你的搜索结果中,每个结果都是[webpage X begin]...[webpage X end]格式的,X代表每篇文章的数字索引。请在适当的情况下在句子末尾引用上下文。请按照引用编号[citation:X]的格式在答案中对应部分引用上下文。如果一句话源自多个上下文,请列出所有相关的引用编号,例如[citation:3][citation:5],切记不要将引用集中在最后返回引用编号,而是在答案对应部分列出。  
在回答时,请注意以下几点:  
- 今天是{cur\_date}。  
- 并非搜索结果的所有内容都与用户的问题密切相关,你需要结合问题,对搜索结果进行甄别、筛选。  
- 对于列举类的问题(如列举所有航班信息),尽量将答案控制在10个要点以内,并告诉用户可以查看搜索来源、获得完整信息。优先提供信息完整、最相关的列举项;如非必要,不要主动告诉用户搜索结果未提供的内容。  
- 对于创作类的问题(如写论文),请务必在正文的段落中引用对应的参考编号,例如[citation:3][citation:5],不能只在文章末尾引用。你需要解读并概括用户的题目要求,选择合适的格式,充分利用搜索结果并抽取重要信息,生成符合用户要求、极具思想深度、富有创造力与专业性的答案。你的创作篇幅需要尽可能延长,对于每一个要点的论述要推测用户的意图,给出尽可能多角度的回答要点,且务必信息量大、论述详尽。  
- 如果回答很长,请尽量结构化、分段落总结。如果需要分点作答,尽量控制在5个点以内,并合并相关的内容。  
- 对于客观类的问答,如果问题的答案非常简短,可以适当补充一到两句相关信息,以丰富内容。  
- 你需要根据用户要求和回答内容选择合适、美观的回答格式,确保可读性强。  
- 你的回答应该综合多个相关网页来回答,不能重复引用一个网页。  
- 除非用户要求,否则你回答的语言需要和用户提问的语言保持一致。  
# 用户消息为:  
{question}
4.Guidelines to mitigate model bypass thinking

最后一点是一个小补丁,感觉也不一定用得上。它说的是,DeepSeek团队观察到他们的一系列模型有时候在回答特定问题时会跳过思考模式(thingking pattern),这样会对模型的表现产生不良的影响。

因此,为了确保模型在推理过程中一定会启动思考模式,团队建议在prompt中,强制模型以“\n”作为其输出的开头,从而确保其一定会认真思考。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
云原生机器学习系统落地和实践
机器学习在字节跳动有着丰富业务场景:推广搜、CV/NLP/Speech 等。业务规模的不断增大对机器学习系统从用户体验、训练效率、编排调度、资源利用等方面也提出了新的挑战,而 Kubernetes 云原生理念的提出正是为了应对这些挑战。本次分享将主要介绍字节跳动机器学习系统云原生化的落地和实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论