在大模型盛行的当下,AIGC已经成为很多人争相探索的领域之一,其中基于提示词的fine tune是门槛最低的一种微调方式,一个好的prompt直接决定生成结果的好坏。本文包含了一些手工策划的资源,重点关注生成式预训练变换器(GPT)、ChatGPT、PaLM等。
• 论文[1]
• 工具和代码[2]
• API[3]
• 数据集[4]
• 模型[5]
• AI内容检测器[6]
• 教育相关[7]
• 课程[8]
• 教程[9]
• 视频[10]
• 书籍[11]
• 社区[12]
• 如何贡献[13]
论文
📄
•提示工程技术 :•增强Prompt工程与ChatGPT的Prompt模式目录[14] [2023] (Arxiv)•基于梯度的离散优化:简化Prompt调整与发现[15] [2023] (Arxiv)•合成提示:为大型语言模型生成思路串联演示[16] [2023] (Arxiv)•渐进式提示:面向语言模型的持续学习[17] [2023] (Arxiv)•批量提示:利用LLM API进行高效推理[18] [2023] (Arxiv)•连续提示用于解答复杂问题[19] [2022] (Arxiv)•结构化提示:将上下文学习扩展到1,000个示例[20] [2022] (Arxiv)•大型语言模型即人类级别的Prompt工程师[21] [2022] (Arxiv)•问我任何问题:一种简单的提示语言模型策略[22] [2022] (Arxiv)•提示GPT-3变得可靠[23] [2022] (Arxiv)•分解提示:求解复杂任务的模块化方法[24] [2022] (Arxiv)•PromptChainer:通过可视化编程链接大型语言模型的提示[25] [2022] (Arxiv)•探究扩散模型中的提示工程[26] [2022] (Arxiv)•展示你的工作:用于中间计算的语言模型草稿本[27] [2021] (Arxiv)•将教学提示转化为GPTk的语言[28] [2021] (Arxiv)•奇妙有序的提示及其寻找之处:克服少样本提示顺序敏感性[29] [2021] (Arxiv)•规模的力量:用于参数高效调优的提示[30] [2021] (Arxiv)•大型语言模型的Prompt编程:超越少样本范例[31] [2021] (Arxiv)•前缀调优:优化生成的连续提示[32] [2021] (Arxiv) •推理和上下文学习 :•《多模式思维链推理在语言模型中的应用》[2023](Arxiv)•《转念一想,我们不应该逐步思考!零-shot推理中的偏见和有毒性》[2022](Arxiv)•《ReAct:语言模型中推理和行动的协同作用》[2022](Arxiv)•《语言模型是贪婪的推理者:链式思维的系统形式分析》[2022](Arxiv)•《关于使语言模型更好的推理的进展》[2022](Arxiv)•《大型语言模型是零-shot推理者》[2022](Arxiv)•《像程序执行者一样进行推理》[2022](Arxiv)•《自洽性改善语言模型的连续思维推理》[2022](Arxiv)•《重新思考示例的作用:什么使得上下文学习起作用?》[2022](Arxiv)•《学会解释:科学问答中基于思维链的多模式推理》[2022](Arxiv)•《思维链推动激发大型语言模型的推理》[2021](Arxiv)•《生成知识提示用于常识推理》[2021](Arxiv)•《BERTese:学习与BERT对话》[2021](Acl) •评估和改善语言模型 :•大型语言模型容易被无关上下文分散注意力[33] [2023] (Arxiv)•获取语言模型的内部知识库[34] [2023] (Arxiv)•通过模型撰写的评估发现语言模型行为[35] [2022] (Arxiv)•使用前进行校准:提高语言模型的少样本性能[36] [2021] (Arxiv) •语言模型的应用 :•多模态仇恨恶搞分类的提示[37] [2023] (Arxiv)•PLACES: 用于社交对话合成的提示语言模型[38] [2023] (Arxiv)•常识感知的可控移情对话生成的提示[39] [2023] (Arxiv)•PAL: 辅助程序的语言模型[40] [2023] (Arxiv)•多语言法律判断预测的法律提示工程[41] [2023] (Arxiv)•与Copilot对话: 探索使用自然语言解决CS1问题的提示工程[42] [2022] (Arxiv)•从零开始的情节写作预训练语言模型[43] [2022] (Acl)•AutoPrompt: 利用自动生成的提示从语言模型中引出知识[44] [2020] (Arxiv) •威胁检测和对抗样本 :•宪法AI: AI反馈的无害性[45] [2022] (Arxiv)•忽略先前提示: 语言模型的攻击技术[46] [2022] (Arxiv)•机器生成的文本: 威胁模型和检测方法的综合调查[47] [2022] (Arxiv)•通过手工制作的对抗样本评估预训练语言模型的易感性[48] [2022] (Arxiv)•基于生成提示的毒性检测[49] [2022] (Arxiv)•我们如何知道语言模型知道什么?[50] [2020] (Mit) •少样本学习和性能优化 :•Promptagator:从8个样例进行少样本密集检索[51] [2022] (Arxiv)•对于文本推理的少样本提示的解释的不可靠性[52] [2022] (Arxiv)•使预训练语言模型成为更好的少样本学习者[53] [2021] (Acl)•语言模型是少样本学习者[54] [2020] (Arxiv) •文本到图像生成 :•用于文本到图像生成的提示修饰词的分类法[55] [2022] (Arxiv)•用于提示工程化文本到图像生成模型的设计准则[56] [2021] (Arxiv)•使用潜在扩散模型进行高分辨率图像合成[57] [2021] (Arxiv)•DALL·E:从文本创建图像[58] [2021] (Arxiv) •文本到音乐/声音生成 :•MusicLM: 从文本生成音乐[59] [2023] (Arxiv)•ERNIE-Music: 基于扩散模型的文本到音频音乐生成[60] [2023] (Arxiv)•Noise2Music: 基于扩散模型的文本条件音乐生成[61] [2023) (Arxiv)•AudioLM: 一种基于语言建模的音频生成方法[62] [2023] (Arxiv)•Make-An-Audio: 基于增强扩散模型的文本到音频生成[63] [2023] (Arxiv) •文本到视频生成 :•Dreamix: 视频扩散模型是通用的视频编辑器[64] [2023] (Arxiv)•Tune-A-Video: 一次性调整图像扩散模型用于文本到视频生成[65] [2022] (Arxiv)•Noise2Music: 基于扩散模型的文本条件音乐生成[66] [2023] (Arxiv)•AudioLM: 一种基于语言模型的音频生成方法[67] [2023] (Arxiv) •概述 :•Copilot和Codex的试点:高温度、冷提示还是黑魔法?[68] [2022] (Arxiv)
工具和代码
🔧
| 名称 | 描述 | 网址 | | GPT Index | GPT Index 是一个由一组数据结构组成的项目,旨在使使用大型外部知识库与 LLM 更加容易。 | [GitHub][69] | | Promptify | 使用 LLM 解决 NLP 问题,并使用 Promptify 为流行的生成模型(如 GPT、PaLM 等)生成不同的 NLP 任务提示。 | [GitHub][70] | | Arize-Phoenix | 用于 ML 可观察性的开源工具,可在笔记本环境中运行。监视和微调 LLM、CV 和 Tabular Models。 | [GitHub][71] | | Better Prompt | 在将 LLM 提示推送到 PROD 之前进行测试套件。 | [GitHub][72] | | Embedchain | 用于在数据集上创建类似 ChatGPT 的机器人的框架。 | [GitHub][73] | | Interactive Composition Explorerx | ICE 是一个用于语言模型程序的 Python 库和跟踪可视化工具。 | [GitHub][74] | | Haystack | 开源的 NLP 框架,可使用 LLM 和 Transformers 与数据进行交互。 | [GitHub][75] | | LangChainx | 通过组合性构建使用 LLM 的应用程序。 | [GitHub][76] | | OpenPrompt | 一个用于学习提示的开源框架。 | [GitHub][77] | | Prompt Engine | 该仓库包含一个用于创建和维护大型语言模型(LLM)提示的 NPM 实用库。 | [GitHub][78] | | PromptInject | PromptInject 是一个以模块化方式组装提示的框架,以提供对 LLM 对抗提示攻击的鲁棒性的定量分析。 | [GitHub][79] | | Prompts AI | GPT-3 的高级游乐场。 | [GitHub][80] | | Prompt Source | PromptSource 是一个用于创建、共享和使用自然语言提示的工具包。 | [GitHub][81] | | ThoughtSource | 用于机器思维科学的框架。 | [GitHub][82] | | PROMPTMETHEUS | 一次性提示工程工具包。 | [工具][83] |
接口
💻
| 名称 | 描述 | 网址 | 付费还是开源 | | OpenAI | GPT-n用于自然语言任务,Codex用于将自然语言翻译为代码,DALL·E用于创建和编辑原始图像 | [OpenAI][84] | 付费 | | CohereAI | Cohere通过一个API提供对高级大型语言模型和NLP工具的访问 | [CohereAI][85] | 付费 | | Anthropic | 即将推出 | [Anthropic][86] | 付费 | | FLAN-T5 XXL | 即将推出 | [HugginFace][87] | 开源 |
数据集
| 名称 | 描述 | 链接 | | P3(公共提示池) | P3(公共提示池)是一个包含各种自然语言处理任务的英文数据集集合。 | [HuggingFace][88] | | Awesome ChatGPT Prompts | 该仓库包含了用于更好地使用ChatGPT的提示集。 | [Github][89] | | 写作提示 | 这是一个包含30万篇由人类撰写的故事和对应写作提示的数据集,来自一个在线论坛(reddit)。 | [Kaggle][90] | | Midjourney提示 | 这个数据集包含了从MidJourney公共Discord服务器中抓取的文本提示和图像链接。 | [HuggingFace][91] |
模型
| 名称 | 描述 | 链接 | | ChatGPT | ChatGPT | [OpenAI][92] | | Codex | Codex模型是我们GPT-3模型的后代,能够理解和生成代码。它们的训练数据包含自然语言和GitHub上数十亿行的公共代码 | [Github][93] | | Bloom | BigScience大型开放科学开放获取多语言语言模型 | [HuggingFace][94] | | Facebook LLM | OPT-175B是由Meta训练的与GPT-3等效的模型。它是目前参数最多的预训练语言模型,拥有1750亿个参数。 | [Alpa][95] | | GPT-NeoX | GPT-NeoX-20B是一个训练于Pile数据集上的200亿参数自回归语言模型 | [HuggingFace][96] | | FLAN-T5 XXL | Flan-T5是一个经过指导调整的模型,意味着在提示的一部分提供指令时,它将表现出零-shot特性 | [HuggingFace/Google][97] | | XLM-RoBERTa-XL | XLM-RoBERTa-XL模型在2.5TB的CommonCrawl数据上进行了预训练,其中包含100种语言的筛选数据 | [HuggingFace][98] | | GPT-J | GPT-J是一个类似于GPT-2的因果语言模型,训练于Pile数据集 | [HuggingFace][99] | | PaLM-rlhf-pytorch | 在PaLM架构之上实现了带有人类反馈的强化学习(RLHF)。基本上是ChatGPT但带有PaLM | [Github][100] | | GPT-Neo | 使用mesh-tensorflow库实现的模型并行GPT-2和GPT-3风格模型的实现 | [Github][101] | | LaMDA-rlhf-pytorch | Google的LaMDA在PyTorch中的开源预训练实现。添加了与ChatGPT类似的RLHF | [Github][102] | | RLHF | 人类反馈强化学习(RLHF)的实现 | [Github][103] | | GLM-130B | GLM-130B:一个开放的双语预训练模型 | [Github][104] |
AI 内容检测器
| 名称 | 描述 | URL | | AI 文本分类器 | AI 文本分类器是一个经过微调的 GPT 模型,可以预测一段文字是来自于各种来源(如 ChatGPT)的 AI 生成的可能性有多大。 | [OpenAI][105] | | GPT-2 输出检测器 | 这是一个基于🤗/Transformers RoBERTa 实现的 GPT-2 输出检测器模型的在线演示。 | [HuggingFace][106] | | OpenAI 检测器 | 用于指示 AI 生成文本的 AI 分类器(OpenAI 检测器的 Python 封装)。 | [GitHub][107] |
课程
•开发者的ChatGPT提示工程课程[108],由deeplearning.ai[109]提供。
教程
• Prompt工程概论
• Prompt工程101-介绍和资源[110]
• Prompt工程101[111]
• SudalaiRajkumar的Prompt工程指南[112]
• 生成式语言模型的初学者指南
• 传统语言生成模型的初学者友好指南 - LaMBDA指南[113]
• Cohere的生成AI:第一部分 - 模型提示[114]
• 提示工程的最佳实践
• OpenAI API的提示工程最佳实践[115]
• 如何书写良好的提示[116]
• 提示工程完整指南
• 大语言模型的提示工程完全介绍[117]
• 提示工程指南:如何设计出完美的提示[118]
• 提示工程的技术方面
• 快速工程化GPT-3的3个原则[119]
• 用于ChatGPT提示工程化的通用框架[120]
• 提示编程的方法[121]
• 提示工程化资源
• Awesome ChatGPT Prompts[122]
• 最佳的100+稳定的Diffusion prompts[123]
• DALLE提示书[124]
• OpenAI Cookbook[125]
• 由Microsoft提供的Prompt Engineering[126]
视频
• ChatGPT高级提示工程[127]
• ChatGPT:初学者的5个提示工程秘密[128]
• CMU高级自然语言处理2022:提示[129]
• 提示工程-一个新的职业?[130]
• ChatGPT指南:通过更好的提示提高10倍结果[131]
• 语言模型和提示工程:NLP中提示方法的系统调查[132]
• 提示工程101:自动补全、零样本、一次样本和少样本提示[133]
社区
• OpenAI Discord[134]
• PromptsLab Discord[135]
• 学习 Prompting[136]
• r/ChatGPT Discord[137]
• MidJourney Discord[138]
我们欢迎对此列表的贡献!事实上,这也是我创建它的主要原因 - 鼓励贡献,并鼓励人们订阅更改内容,以便及时了解大型语言模型(LLMs)和提示工程领域的新发展和令人兴奋的进展。
在贡献之前,请花点时间阅读我们的贡献指南[139]。这些准则将有助于确保您的贡献与我们的目标一致,并符合我们的质量和相关性标准。感谢您对贡献此项目的兴趣!
本文翻译整理自:https://github.com/promptslab/Awesome-Prompt-Engineering/blob/main/README.md 感兴趣的请点赞、收藏、关注。
References
[1]
论文: #论文
[2]
工具和代码: #工具--代码
[3]
API: #API
[4]
数据集: #数据集
[5]
模型: #模型
[6]
AI内容检测器: #AI内容检测器
[7]
教育相关: #教育
[8]
课程: #课程
[9]
教程: #教程
[10]
视频: #视频
[11]
书籍: #书籍
[12]
社区: #社区
[13]
如何贡献: #如何贡献
[14]
增强Prompt工程与ChatGPT的Prompt模式目录: https://arxiv.org/abs/2302.11382
[15]
基于梯度的离散优化:简化Prompt调整与发现: https://arxiv.org/abs/2302.03668
[16]
合成提示:为大型语言模型生成思路串联演示: https://arxiv.org/abs/2302.00618
[17]
渐进式提示:面向语言模型的持续学习: https://arxiv.org/abs/2301.12314
[18]
批量提示:利用LLM API进行高效推理: https://arxiv.org/abs/2301.08721
[19]
连续提示用于解答复杂问题: https://arxiv.org/abs/2212.04092
[20]
结构化提示:将上下文学习扩展到1,000个示例: https://arxiv.org/abs/2212.06713
[21]
大型语言模型即人类级别的Prompt工程师: https://arxiv.org/abs/2211.01910
[22]
问我任何问题:一种简单的提示语言模型策略: https://paperswithcode.com/paper/ask-me-anything-a-simple-strategy-for
[23]
提示GPT-3变得可靠: https://arxiv.org/abs/2210.09150
[24]
分解提示:求解复杂任务的模块化方法: https://arxiv.org/abs/2210.02406
[25]
PromptChainer:通过可视化编程链接大型语言模型的提示: https://arxiv.org/abs/2203.06566
[26]
探究扩散模型中的提示工程: https://arxiv.org/abs/2211.15462
[27]
展示你的工作:用于中间计算的语言模型草稿本: https://arxiv.org/abs/2112.00114
[28]
将教学提示转化为GPTk的语言: https://arxiv.org/abs/2109.07830
[29]
奇妙有序的提示及其寻找之处:克服少样本提示顺序敏感性: https://arxiv.org/abs/2104.08786
[30]
规模的力量:用于参数高效调优的提示: https://arxiv.org/abs/2104.08691
[31]
大型语言模型的Prompt编程:超越少样本范例: https://arxiv.org/abs/2102.07350
[32]
前缀调优:优化生成的连续提示: https://arxiv.org/abs/2101.00190
[33]
大型语言模型容易被无关上下文分散注意力: https://arxiv.org/abs/2302.00093
[34]
获取语言模型的内部知识库: https://arxiv.org/abs/2301.12810
[35]
通过模型撰写的评估发现语言模型行为: https://arxiv.org/abs/2212.09251
[36]
使用前进行校准:提高语言模型的少样本性能: https://arxiv.org/abs/2102.09690
[37]
多模态仇恨恶搞分类的提示: https://arxiv.org/abs/2302.04156
[38]
PLACES: 用于社交对话合成的提示语言模型: https://arxiv.org/abs/2302.03269
[39]
常识感知的可控移情对话生成的提示: https://arxiv.org/abs/2302.01441
[40]
PAL: 辅助程序的语言模型: https://arxiv.org/abs/2211.10435
[41]
多语言法律判断预测的法律提示工程: https://arxiv.org/abs/2212.02199
[42]
与Copilot对话: 探索使用自然语言解决CS1问题的提示工程: https://arxiv.org/abs/2210.15157
[43]
从零开始的情节写作预训练语言模型: https://aclanthology.org/2022.inlg-main.5
[44]
AutoPrompt: 利用自动生成的提示从语言模型中引出知识: https://arxiv.org/abs/2010.15980
[45]
宪法AI: AI反馈的无害性: https://arxiv.org/abs/2212.08073
[46]
忽略先前提示: 语言模型的攻击技术: https://arxiv.org/abs/2211.09527
[47]
机器生成的文本: 威胁模型和检测方法的综合调查: https://arxiv.org/abs/2210.07321
[48]
通过手工制作的对抗样本评估预训练语言模型的易感性: https://arxiv.org/abs/2209.02128
[49]
基于生成提示的毒性检测: https://arxiv.org/abs/2205.12390
[50]
我们如何知道语言模型知道什么?: https://direct.mit.edu/tacl/article/doi/10.1162/tacl\_a\_00324/96460/How-Can-We-Know-What-Language-Models-Know
[51]
Promptagator:从8个样例进行少样本密集检索: https://arxiv.org/abs/2209.11755
[52]
对于文本推理的少样本提示的解释的不可靠性: https://arxiv.org/abs/2205.03401
[53]
使预训练语言模型成为更好的少样本学习者: https://aclanthology.org/2021.acl-long.295
[54]
语言模型是少样本学习者: https://arxiv.org/abs/2005.14165
[55]
用于文本到图像生成的提示修饰词的分类法: https://arxiv.org/abs/2204.13988
[56]
用于提示工程化文本到图像生成模型的设计准则: https://arxiv.org/abs/2109.06977
[57]
使用潜在扩散模型进行高分辨率图像合成: https://arxiv.org/abs/2112.10752
[58]
DALL·E:从文本创建图像: https://arxiv.org/abs/2102.12092
[59]
MusicLM: 从文本生成音乐: https://arxiv.org/abs/2301.11325
[60]
ERNIE-Music: 基于扩散模型的文本到音频音乐生成: https://arxiv.org/pdf/2302.04456
[61]
Noise2Music: 基于扩散模型的文本条件音乐生成: https://arxiv.org/abs/2301.11325
[62]
AudioLM: 一种基于语言建模的音频生成方法: https://arxiv.org/pdf/2209.03143
[63]
Make-An-Audio: 基于增强扩散模型的文本到音频生成: https://arxiv.org/pdf/2301.12661.pdf
[64]
Dreamix: 视频扩散模型是通用的视频编辑器: https://arxiv.org/pdf/2302.01329.pdf
[65]
Tune-A-Video: 一次性调整图像扩散模型用于文本到视频生成: https://arxiv.org/pdf/2212.11565.pdf
[66]
Noise2Music: 基于扩散模型的文本条件音乐生成: https://arxiv.org/abs/2301.11325
[67]
AudioLM: 一种基于语言模型的音频生成方法: https://arxiv.org/pdf/2209.03143
[68]
Copilot和Codex的试点:高温度、冷提示还是黑魔法?: https://arxiv.org/abs/2210.14699
[69]
[GitHub]: https://github.com/jerryjliu/gpt\_index
[70]
[GitHub]: https://github.com/promptslab/Promptify
[71]
[GitHub]: https://github.com/Arize-ai/phoenix
[72]
[GitHub]: https://github.com/krrishdholakia/betterprompt
[73]
[GitHub]: https://github.com/embedchain/embedchain
[74]
[GitHub]: https://github.com/oughtinc/ice
[75]
[GitHub]: https://github.com/deepset-ai/haystack
[76]
[GitHub]: https://github.com/hwchase17/langchain
[77]
[GitHub]: https://github.com/thunlp/OpenPrompt
[78]
[GitHub]: https://github.com/microsoft/prompt-engine
[79]
[GitHub]: https://github.com/agencyenterprise/PromptInject
[80]
[GitHub]: https://github.com/sevazhidkov/prompts-ai
[81]
[GitHub]: https://github.com/bigscience-workshop/promptsource
[82]
[GitHub]: https://github.com/OpenBioLink/ThoughtSource
[83]
[工具]: https://promptmetheus.com
[84]
[OpenAI]: https://openai.com/api/
[85]
[CohereAI]: https://cohere.ai/
[86]
[Anthropic]: https://www.anthropic.com/
[87]
[HugginFace]: https://huggingface.co/docs/api-inference/index
[88]
[HuggingFace]: https://huggingface.co/datasets/bigscience/P3
[89]
[Github]: https://github.com/f/awesome-chatgpt-prompts
[90]
[Kaggle]: https://www.kaggle.com/datasets/ratthachat/writing-prompts
[91]
[HuggingFace]: https://huggingface.co/datasets/succinctly/midjourney-prompts
[92]
[OpenAI]: https://chat.openai.com/
[93]
[Github]: https://platform.openai.com/docs/models/codex
[94]
[HuggingFace]: https://huggingface.co/bigscience/bloom
[95]
[Alpa]: https://opt.alpa.ai/
[96]
[HuggingFace]: https://huggingface.co/docs/transformers/model\_doc/gpt\_neox
[97]
[HuggingFace/Google]: https://huggingface.co/google/flan-t5-xxl
[98]
[HuggingFace]: https://huggingface.co/facebook/xlm-roberta-xxl
[99]
[HuggingFace]: https://huggingface.co/docs/transformers/model\_doc/gptj
[100]
[Github]: https://github.com/lucidrains/PaLM-rlhf-pytorch
[101]
[Github]: https://github.com/EleutherAI/gpt-neo
[102]
[Github]: https://github.com/conceptofmind/LaMDA-rlhf-pytorch
[103]
[Github]: https://github.com/xrsrke/instructGOOSE
[104]
[Github]: https://github.com/THUDM/GLM-130B
[105]
[OpenAI]: https://platform.openai.com/ai-text-classifier
[106]
[HuggingFace]: https://huggingface.co/spaces/openai/openai-detector
[107]
[GitHub]: https://github.com/promptslab/openai-detector
[108]
开发者的ChatGPT提示工程课程: https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
[109]
deeplearning.ai: https://www.deeplearning.ai/
[110]
Prompt工程101-介绍和资源: https://www.linkedin.com/pulse/prompt-engineering-101-introduction-resources-amatriain
[111]
Prompt工程101: https://humanloop.com/blog/prompt-engineering-101
[112]
SudalaiRajkumar的Prompt工程指南: https://github.com/SudalaiRajkumar/Talks\_Webinars/blob/master/Slides/PromptEngineering\_20230208.pdf
[113]
传统语言生成模型的初学者友好指南 - LaMBDA指南: https://aitestkitchen.withgoogle.com/how-lamda-works
[114]
Cohere的生成AI:第一部分 - 模型提示: https://txt.cohere.ai/generative-ai-part-1
[115]
OpenAI API的提示工程最佳实践: https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api
[116]
如何书写良好的提示: https://andymatuschak.org/prompts
[117]
大语言模型的提示工程完全介绍: https://www.mihaileric.com/posts/a-complete-introduction-to-prompt-engineering
[118]
提示工程指南:如何设计出完美的提示: https://richardbatt.co.uk/prompt-engineering-guide-how-to-engineer-the-perfect-prompts
[119]
快速工程化GPT-3的3个原则: https://www.linkedin.com/pulse/3-principles-prompt-engineering-gpt-3-ben-whately
[120]
用于ChatGPT提示工程化的通用框架: https://medium.com/@thorbjoern.heise/a-generic-framework-for-chatgpt-prompt-engineering-7097f6513a0b
[121]
提示编程的方法: https://generative.ink/posts/methods-of-prompt-programming
[122]
Awesome ChatGPT Prompts: https://github.com/f/awesome-chatgpt-prompts
[123]
最佳的100+稳定的Diffusion prompts: https://mpost.io/best-100-stable-diffusion-prompts-the-most-beautiful-ai-text-to-image-prompts
[124]
DALLE提示书: https://dallery.gallery/the-dalle-2-prompt-book
[125]
OpenAI Cookbook: https://github.com/openai/openai-cookbook
[126]
由Microsoft提供的Prompt Engineering: https://microsoft.github.io/prompt-engineering
[127]
ChatGPT高级提示工程: https://www.youtube.com/watch?v=bBiTR\_1sEmI
[128]
ChatGPT:初学者的5个提示工程秘密: https://www.youtube.com/watch?v=2zg3V66-Fzs
[129]
CMU高级自然语言处理2022:提示: https://youtube.com/watch?v=5ef83Wljm-M&feature=shares
[130]
提示工程-一个新的职业?: https://www.youtube.com/watch?v=w102J3\_9Bcs&ab\_channel=PatrickDebois
[131]
ChatGPT指南:通过更好的提示提高10倍结果: https://www.youtube.com/watch?v=os-JX1ZQwIA
[132]
语言模型和提示工程:NLP中提示方法的系统调查: https://youtube.com/watch?v=OsbUfL8w-mo&feature=shares
[133]
提示工程101:自动补全、零样本、一次样本和少样本提示: https://youtube.com/watch?v=v2gD8BHOaX4&feature=shares
[134]
OpenAI Discord: https://discord.com/invite/openai
[135]
PromptsLab Discord: https://discord.gg/m88xfYMbK6
[136]
学习 Prompting: https://discord.gg/7enStJXQzD
[137]
r/ChatGPT Discord: https://discord.com/invite/r-chatgpt-1050422060352024636
[138]
MidJourney Discord: https://discord.com/invite/MidJourney
[139]
贡献指南: contributing.md