Awesome-Prompt-Engineering 最全的AI prompt知识库之一

技术

在大模型盛行的当下,AIGC已经成为很多人争相探索的领域之一,其中基于提示词的fine tune是门槛最低的一种微调方式,一个好的prompt直接决定生成结果的好坏。本文包含了一些手工策划的资源,重点关注生成式预训练变换器(GPT)、ChatGPT、PaLM等。

目录

• 论文[1]

• 工具和代码[2]

• API[3]

• 数据集[4]

• 模型[5]

• AI内容检测器[6]

• 教育相关[7]

• 课程[8]

• 教程[9]

• 视频[10]

• 书籍[11]

• 社区[12]

• 如何贡献[13]

论文

📄

提示工程技术 :•增强Prompt工程与ChatGPT的Prompt模式目录[14] [2023] (Arxiv)•基于梯度的离散优化:简化Prompt调整与发现[15] [2023] (Arxiv)•合成提示:为大型语言模型生成思路串联演示[16] [2023] (Arxiv)•渐进式提示:面向语言模型的持续学习[17] [2023] (Arxiv)•批量提示:利用LLM API进行高效推理[18] [2023] (Arxiv)•连续提示用于解答复杂问题[19] [2022] (Arxiv)•结构化提示:将上下文学习扩展到1,000个示例[20] [2022] (Arxiv)•大型语言模型即人类级别的Prompt工程师[21] [2022] (Arxiv)•问我任何问题:一种简单的提示语言模型策略[22] [2022] (Arxiv)•提示GPT-3变得可靠[23] [2022] (Arxiv)•分解提示:求解复杂任务的模块化方法[24] [2022] (Arxiv)•PromptChainer:通过可视化编程链接大型语言模型的提示[25] [2022] (Arxiv)•探究扩散模型中的提示工程[26] [2022] (Arxiv)•展示你的工作:用于中间计算的语言模型草稿本[27] [2021] (Arxiv)•将教学提示转化为GPTk的语言[28] [2021] (Arxiv)•奇妙有序的提示及其寻找之处:克服少样本提示顺序敏感性[29] [2021] (Arxiv)•规模的力量:用于参数高效调优的提示[30] [2021] (Arxiv)•大型语言模型的Prompt编程:超越少样本范例[31] [2021] (Arxiv)•前缀调优:优化生成的连续提示[32] [2021] (Arxiv) •推理和上下文学习 :•《多模式思维链推理在语言模型中的应用》[2023](Arxiv)•《转念一想,我们不应该逐步思考!零-shot推理中的偏见和有毒性》[2022](Arxiv)•《ReAct:语言模型中推理和行动的协同作用》[2022](Arxiv)•《语言模型是贪婪的推理者:链式思维的系统形式分析》[2022](Arxiv)•《关于使语言模型更好的推理的进展》[2022](Arxiv)•《大型语言模型是零-shot推理者》[2022](Arxiv)•《像程序执行者一样进行推理》[2022](Arxiv)•《自洽性改善语言模型的连续思维推理》[2022](Arxiv)•《重新思考示例的作用:什么使得上下文学习起作用?》[2022](Arxiv)•《学会解释:科学问答中基于思维链的多模式推理》[2022](Arxiv)•《思维链推动激发大型语言模型的推理》[2021](Arxiv)•《生成知识提示用于常识推理》[2021](Arxiv)•《BERTese:学习与BERT对话》[2021](Acl) •评估和改善语言模型 :•大型语言模型容易被无关上下文分散注意力[33] [2023] (Arxiv)•获取语言模型的内部知识库[34] [2023] (Arxiv)•通过模型撰写的评估发现语言模型行为[35] [2022] (Arxiv)•使用前进行校准:提高语言模型的少样本性能[36] [2021] (Arxiv) •语言模型的应用 :•多模态仇恨恶搞分类的提示[37] [2023] (Arxiv)•PLACES: 用于社交对话合成的提示语言模型[38] [2023] (Arxiv)•常识感知的可控移情对话生成的提示[39] [2023] (Arxiv)•PAL: 辅助程序的语言模型[40] [2023] (Arxiv)•多语言法律判断预测的法律提示工程[41] [2023] (Arxiv)•与Copilot对话: 探索使用自然语言解决CS1问题的提示工程[42] [2022] (Arxiv)•从零开始的情节写作预训练语言模型[43] [2022] (Acl)•AutoPrompt: 利用自动生成的提示从语言模型中引出知识[44] [2020] (Arxiv) •威胁检测和对抗样本 :•宪法AI: AI反馈的无害性[45] [2022] (Arxiv)•忽略先前提示: 语言模型的攻击技术[46] [2022] (Arxiv)•机器生成的文本: 威胁模型和检测方法的综合调查[47] [2022] (Arxiv)•通过手工制作的对抗样本评估预训练语言模型的易感性[48] [2022] (Arxiv)•基于生成提示的毒性检测[49] [2022] (Arxiv)•我们如何知道语言模型知道什么?[50] [2020] (Mit) •少样本学习和性能优化 :•Promptagator:从8个样例进行少样本密集检索[51] [2022] (Arxiv)•对于文本推理的少样本提示的解释的不可靠性[52] [2022] (Arxiv)•使预训练语言模型成为更好的少样本学习者[53] [2021] (Acl)•语言模型是少样本学习者[54] [2020] (Arxiv) •文本到图像生成 :•用于文本到图像生成的提示修饰词的分类法[55] [2022] (Arxiv)•用于提示工程化文本到图像生成模型的设计准则[56] [2021] (Arxiv)•使用潜在扩散模型进行高分辨率图像合成[57] [2021] (Arxiv)•DALL·E:从文本创建图像[58] [2021] (Arxiv) •文本到音乐/声音生成 :•MusicLM: 从文本生成音乐[59] [2023] (Arxiv)•ERNIE-Music: 基于扩散模型的文本到音频音乐生成[60] [2023] (Arxiv)•Noise2Music: 基于扩散模型的文本条件音乐生成[61] [2023) (Arxiv)•AudioLM: 一种基于语言建模的音频生成方法[62] [2023] (Arxiv)•Make-An-Audio: 基于增强扩散模型的文本到音频生成[63] [2023] (Arxiv) •文本到视频生成 :•Dreamix: 视频扩散模型是通用的视频编辑器[64] [2023] (Arxiv)•Tune-A-Video: 一次性调整图像扩散模型用于文本到视频生成[65] [2022] (Arxiv)•Noise2Music: 基于扩散模型的文本条件音乐生成[66] [2023] (Arxiv)•AudioLM: 一种基于语言模型的音频生成方法[67] [2023] (Arxiv) •概述 :•Copilot和Codex的试点:高温度、冷提示还是黑魔法?[68] [2022] (Arxiv)

工具和代码

🔧

| 名称 | 描述 | 网址 | | GPT Index | GPT Index 是一个由一组数据结构组成的项目,旨在使使用大型外部知识库与 LLM 更加容易。 | [GitHub][69] | | Promptify | 使用 LLM 解决 NLP 问题,并使用 Promptify 为流行的生成模型(如 GPT、PaLM 等)生成不同的 NLP 任务提示。 | [GitHub][70] | | Arize-Phoenix | 用于 ML 可观察性的开源工具,可在笔记本环境中运行。监视和微调 LLM、CV 和 Tabular Models。 | [GitHub][71] | | Better Prompt | 在将 LLM 提示推送到 PROD 之前进行测试套件。 | [GitHub][72] | | Embedchain | 用于在数据集上创建类似 ChatGPT 的机器人的框架。 | [GitHub][73] | | Interactive Composition Explorerx | ICE 是一个用于语言模型程序的 Python 库和跟踪可视化工具。 | [GitHub][74] | | Haystack | 开源的 NLP 框架,可使用 LLM 和 Transformers 与数据进行交互。 | [GitHub][75] | | LangChainx | 通过组合性构建使用 LLM 的应用程序。 | [GitHub][76] | | OpenPrompt | 一个用于学习提示的开源框架。 | [GitHub][77] | | Prompt Engine | 该仓库包含一个用于创建和维护大型语言模型(LLM)提示的 NPM 实用库。 | [GitHub][78] | | PromptInject | PromptInject 是一个以模块化方式组装提示的框架,以提供对 LLM 对抗提示攻击的鲁棒性的定量分析。 | [GitHub][79] | | Prompts AI | GPT-3 的高级游乐场。 | [GitHub][80] | | Prompt Source | PromptSource 是一个用于创建、共享和使用自然语言提示的工具包。 | [GitHub][81] | | ThoughtSource | 用于机器思维科学的框架。 | [GitHub][82] | | PROMPTMETHEUS | 一次性提示工程工具包。 | [工具][83] |

接口

💻

| 名称 | 描述 | 网址 | 付费还是开源 | | OpenAI | GPT-n用于自然语言任务,Codex用于将自然语言翻译为代码,DALL·E用于创建和编辑原始图像 | [OpenAI][84] | 付费 | | CohereAI | Cohere通过一个API提供对高级大型语言模型和NLP工具的访问 | [CohereAI][85] | 付费 | | Anthropic | 即将推出 | [Anthropic][86] | 付费 | | FLAN-T5 XXL | 即将推出 | [HugginFace][87] | 开源 |

数据集

| 名称 | 描述 | 链接 | | P3(公共提示池) | P3(公共提示池)是一个包含各种自然语言处理任务的英文数据集集合。 | [HuggingFace][88] | | Awesome ChatGPT Prompts | 该仓库包含了用于更好地使用ChatGPT的提示集。 | [Github][89] | | 写作提示 | 这是一个包含30万篇由人类撰写的故事和对应写作提示的数据集,来自一个在线论坛(reddit)。 | [Kaggle][90] | | Midjourney提示 | 这个数据集包含了从MidJourney公共Discord服务器中抓取的文本提示和图像链接。 | [HuggingFace][91] |

模型

| 名称 | 描述 | 链接 | | ChatGPT | ChatGPT | [OpenAI][92] | | Codex | Codex模型是我们GPT-3模型的后代,能够理解和生成代码。它们的训练数据包含自然语言和GitHub上数十亿行的公共代码 | [Github][93] | | Bloom | BigScience大型开放科学开放获取多语言语言模型 | [HuggingFace][94] | | Facebook LLM | OPT-175B是由Meta训练的与GPT-3等效的模型。它是目前参数最多的预训练语言模型,拥有1750亿个参数。 | [Alpa][95] | | GPT-NeoX | GPT-NeoX-20B是一个训练于Pile数据集上的200亿参数自回归语言模型 | [HuggingFace][96] | | FLAN-T5 XXL | Flan-T5是一个经过指导调整的模型,意味着在提示的一部分提供指令时,它将表现出零-shot特性 | [HuggingFace/Google][97] | | XLM-RoBERTa-XL | XLM-RoBERTa-XL模型在2.5TB的CommonCrawl数据上进行了预训练,其中包含100种语言的筛选数据 | [HuggingFace][98] | | GPT-J | GPT-J是一个类似于GPT-2的因果语言模型,训练于Pile数据集 | [HuggingFace][99] | | PaLM-rlhf-pytorch | 在PaLM架构之上实现了带有人类反馈的强化学习(RLHF)。基本上是ChatGPT但带有PaLM | [Github][100] | | GPT-Neo | 使用mesh-tensorflow库实现的模型并行GPT-2和GPT-3风格模型的实现 | [Github][101] | | LaMDA-rlhf-pytorch | Google的LaMDA在PyTorch中的开源预训练实现。添加了与ChatGPT类似的RLHF | [Github][102] | | RLHF | 人类反馈强化学习(RLHF)的实现 | [Github][103] | | GLM-130B | GLM-130B:一个开放的双语预训练模型 | [Github][104] |

AI 内容检测器

| 名称 | 描述 | URL | | AI 文本分类器 | AI 文本分类器是一个经过微调的 GPT 模型,可以预测一段文字是来自于各种来源(如 ChatGPT)的 AI 生成的可能性有多大。 | [OpenAI][105] | | GPT-2 输出检测器 | 这是一个基于🤗/Transformers RoBERTa 实现的 GPT-2 输出检测器模型的在线演示。 | [HuggingFace][106] | | OpenAI 检测器 | 用于指示 AI 生成文本的 AI 分类器(OpenAI 检测器的 Python 封装)。 | [GitHub][107] |

课程

•开发者的ChatGPT提示工程课程[108],由deeplearning.ai[109]提供。

教程

Prompt工程概论

• Prompt工程101-介绍和资源[110]

• Prompt工程101[111]

• SudalaiRajkumar的Prompt工程指南[112]

生成式语言模型的初学者指南

• 传统语言生成模型的初学者友好指南 - LaMBDA指南[113]

• Cohere的生成AI:第一部分 - 模型提示[114]

提示工程的最佳实践

• OpenAI API的提示工程最佳实践[115]

• 如何书写良好的提示[116]

提示工程完整指南

• 大语言模型的提示工程完全介绍[117]

• 提示工程指南:如何设计出完美的提示[118]

提示工程的技术方面

• 快速工程化GPT-3的3个原则[119]

• 用于ChatGPT提示工程化的通用框架[120]

• 提示编程的方法[121]

提示工程化资源

• Awesome ChatGPT Prompts[122]

• 最佳的100+稳定的Diffusion prompts[123]

• DALLE提示书[124]

• OpenAI Cookbook[125]

• 由Microsoft提供的Prompt Engineering[126]

视频

• ChatGPT高级提示工程[127]

• ChatGPT:初学者的5个提示工程秘密[128]

• CMU高级自然语言处理2022:提示[129]

• 提示工程-一个新的职业?[130]

• ChatGPT指南:通过更好的提示提高10倍结果[131]

• 语言模型和提示工程:NLP中提示方法的系统调查[132]

• 提示工程101:自动补全、零样本、一次样本和少样本提示[133]

社区

• OpenAI Discord[134]

• PromptsLab Discord[135]

• 学习 Prompting[136]

• r/ChatGPT Discord[137]

• MidJourney Discord[138]

如何贡献

我们欢迎对此列表的贡献!事实上,这也是我创建它的主要原因 - 鼓励贡献,并鼓励人们订阅更改内容,以便及时了解大型语言模型(LLMs)和提示工程领域的新发展和令人兴奋的进展。

在贡献之前,请花点时间阅读我们的贡献指南[139]。这些准则将有助于确保您的贡献与我们的目标一致,并符合我们的质量和相关性标准。感谢您对贡献此项目的兴趣!

声明

本文翻译整理自:https://github.com/promptslab/Awesome-Prompt-Engineering/blob/main/README.md 感兴趣的请点赞、收藏、关注。

References

[1] 论文: #论文
[2] 工具和代码: #工具--代码
[3] API: #API
[4] 数据集: #数据集
[5] 模型: #模型
[6] AI内容检测器: #AI内容检测器
[7] 教育相关: #教育
[8] 课程: #课程
[9] 教程: #教程
[10] 视频: #视频
[11] 书籍: #书籍
[12] 社区: #社区
[13] 如何贡献: #如何贡献
[14] 增强Prompt工程与ChatGPT的Prompt模式目录: https://arxiv.org/abs/2302.11382
[15] 基于梯度的离散优化:简化Prompt调整与发现: https://arxiv.org/abs/2302.03668
[16] 合成提示:为大型语言模型生成思路串联演示: https://arxiv.org/abs/2302.00618
[17] 渐进式提示:面向语言模型的持续学习: https://arxiv.org/abs/2301.12314
[18] 批量提示:利用LLM API进行高效推理: https://arxiv.org/abs/2301.08721
[19] 连续提示用于解答复杂问题: https://arxiv.org/abs/2212.04092
[20] 结构化提示:将上下文学习扩展到1,000个示例: https://arxiv.org/abs/2212.06713
[21] 大型语言模型即人类级别的Prompt工程师: https://arxiv.org/abs/2211.01910
[22] 问我任何问题:一种简单的提示语言模型策略: https://paperswithcode.com/paper/ask-me-anything-a-simple-strategy-for
[23] 提示GPT-3变得可靠: https://arxiv.org/abs/2210.09150
[24] 分解提示:求解复杂任务的模块化方法: https://arxiv.org/abs/2210.02406
[25] PromptChainer:通过可视化编程链接大型语言模型的提示: https://arxiv.org/abs/2203.06566
[26] 探究扩散模型中的提示工程: https://arxiv.org/abs/2211.15462
[27] 展示你的工作:用于中间计算的语言模型草稿本: https://arxiv.org/abs/2112.00114
[28] 将教学提示转化为GPTk的语言: https://arxiv.org/abs/2109.07830
[29] 奇妙有序的提示及其寻找之处:克服少样本提示顺序敏感性: https://arxiv.org/abs/2104.08786
[30] 规模的力量:用于参数高效调优的提示: https://arxiv.org/abs/2104.08691
[31] 大型语言模型的Prompt编程:超越少样本范例: https://arxiv.org/abs/2102.07350
[32] 前缀调优:优化生成的连续提示: https://arxiv.org/abs/2101.00190
[33] 大型语言模型容易被无关上下文分散注意力: https://arxiv.org/abs/2302.00093
[34] 获取语言模型的内部知识库: https://arxiv.org/abs/2301.12810
[35] 通过模型撰写的评估发现语言模型行为: https://arxiv.org/abs/2212.09251
[36] 使用前进行校准:提高语言模型的少样本性能: https://arxiv.org/abs/2102.09690
[37] 多模态仇恨恶搞分类的提示: https://arxiv.org/abs/2302.04156
[38] PLACES: 用于社交对话合成的提示语言模型: https://arxiv.org/abs/2302.03269
[39] 常识感知的可控移情对话生成的提示: https://arxiv.org/abs/2302.01441
[40] PAL: 辅助程序的语言模型: https://arxiv.org/abs/2211.10435
[41] 多语言法律判断预测的法律提示工程: https://arxiv.org/abs/2212.02199
[42] 与Copilot对话: 探索使用自然语言解决CS1问题的提示工程: https://arxiv.org/abs/2210.15157
[43] 从零开始的情节写作预训练语言模型: https://aclanthology.org/2022.inlg-main.5
[44] AutoPrompt: 利用自动生成的提示从语言模型中引出知识: https://arxiv.org/abs/2010.15980
[45] 宪法AI: AI反馈的无害性: https://arxiv.org/abs/2212.08073
[46] 忽略先前提示: 语言模型的攻击技术: https://arxiv.org/abs/2211.09527
[47] 机器生成的文本: 威胁模型和检测方法的综合调查: https://arxiv.org/abs/2210.07321
[48] 通过手工制作的对抗样本评估预训练语言模型的易感性: https://arxiv.org/abs/2209.02128
[49] 基于生成提示的毒性检测: https://arxiv.org/abs/2205.12390
[50] 我们如何知道语言模型知道什么?: https://direct.mit.edu/tacl/article/doi/10.1162/tacl\_a\_00324/96460/How-Can-We-Know-What-Language-Models-Know
[51] Promptagator:从8个样例进行少样本密集检索: https://arxiv.org/abs/2209.11755
[52] 对于文本推理的少样本提示的解释的不可靠性: https://arxiv.org/abs/2205.03401
[53] 使预训练语言模型成为更好的少样本学习者: https://aclanthology.org/2021.acl-long.295
[54] 语言模型是少样本学习者: https://arxiv.org/abs/2005.14165
[55] 用于文本到图像生成的提示修饰词的分类法: https://arxiv.org/abs/2204.13988
[56] 用于提示工程化文本到图像生成模型的设计准则: https://arxiv.org/abs/2109.06977
[57] 使用潜在扩散模型进行高分辨率图像合成: https://arxiv.org/abs/2112.10752
[58] DALL·E:从文本创建图像: https://arxiv.org/abs/2102.12092
[59] MusicLM: 从文本生成音乐: https://arxiv.org/abs/2301.11325
[60] ERNIE-Music: 基于扩散模型的文本到音频音乐生成: https://arxiv.org/pdf/2302.04456
[61] Noise2Music: 基于扩散模型的文本条件音乐生成: https://arxiv.org/abs/2301.11325
[62] AudioLM: 一种基于语言建模的音频生成方法: https://arxiv.org/pdf/2209.03143
[63] Make-An-Audio: 基于增强扩散模型的文本到音频生成: https://arxiv.org/pdf/2301.12661.pdf
[64] Dreamix: 视频扩散模型是通用的视频编辑器: https://arxiv.org/pdf/2302.01329.pdf
[65] Tune-A-Video: 一次性调整图像扩散模型用于文本到视频生成: https://arxiv.org/pdf/2212.11565.pdf
[66] Noise2Music: 基于扩散模型的文本条件音乐生成: https://arxiv.org/abs/2301.11325
[67] AudioLM: 一种基于语言模型的音频生成方法: https://arxiv.org/pdf/2209.03143
[68] Copilot和Codex的试点:高温度、冷提示还是黑魔法?: https://arxiv.org/abs/2210.14699
[69] [GitHub]: https://github.com/jerryjliu/gpt\_index
[70] [GitHub]: https://github.com/promptslab/Promptify
[71] [GitHub]: https://github.com/Arize-ai/phoenix
[72] [GitHub]: https://github.com/krrishdholakia/betterprompt
[73] [GitHub]: https://github.com/embedchain/embedchain
[74] [GitHub]: https://github.com/oughtinc/ice
[75] [GitHub]: https://github.com/deepset-ai/haystack
[76] [GitHub]: https://github.com/hwchase17/langchain
[77] [GitHub]: https://github.com/thunlp/OpenPrompt
[78] [GitHub]: https://github.com/microsoft/prompt-engine
[79] [GitHub]: https://github.com/agencyenterprise/PromptInject
[80] [GitHub]: https://github.com/sevazhidkov/prompts-ai
[81] [GitHub]: https://github.com/bigscience-workshop/promptsource
[82] [GitHub]: https://github.com/OpenBioLink/ThoughtSource
[83] [工具]: https://promptmetheus.com
[84] [OpenAI]: https://openai.com/api/
[85] [CohereAI]: https://cohere.ai/
[86] [Anthropic]: https://www.anthropic.com/
[87] [HugginFace]: https://huggingface.co/docs/api-inference/index
[88] [HuggingFace]: https://huggingface.co/datasets/bigscience/P3
[89] [Github]: https://github.com/f/awesome-chatgpt-prompts
[90] [Kaggle]: https://www.kaggle.com/datasets/ratthachat/writing-prompts
[91] [HuggingFace]: https://huggingface.co/datasets/succinctly/midjourney-prompts
[92] [OpenAI]: https://chat.openai.com/
[93] [Github]: https://platform.openai.com/docs/models/codex
[94] [HuggingFace]: https://huggingface.co/bigscience/bloom
[95] [Alpa]: https://opt.alpa.ai/
[96] [HuggingFace]: https://huggingface.co/docs/transformers/model\_doc/gpt\_neox
[97] [HuggingFace/Google]: https://huggingface.co/google/flan-t5-xxl
[98] [HuggingFace]: https://huggingface.co/facebook/xlm-roberta-xxl
[99] [HuggingFace]: https://huggingface.co/docs/transformers/model\_doc/gptj
[100] [Github]: https://github.com/lucidrains/PaLM-rlhf-pytorch
[101] [Github]: https://github.com/EleutherAI/gpt-neo
[102] [Github]: https://github.com/conceptofmind/LaMDA-rlhf-pytorch
[103] [Github]: https://github.com/xrsrke/instructGOOSE
[104] [Github]: https://github.com/THUDM/GLM-130B
[105] [OpenAI]: https://platform.openai.com/ai-text-classifier
[106] [HuggingFace]: https://huggingface.co/spaces/openai/openai-detector
[107] [GitHub]: https://github.com/promptslab/openai-detector
[108] 开发者的ChatGPT提示工程课程: https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
[109] deeplearning.ai: https://www.deeplearning.ai/
[110] Prompt工程101-介绍和资源: https://www.linkedin.com/pulse/prompt-engineering-101-introduction-resources-amatriain
[111] Prompt工程101: https://humanloop.com/blog/prompt-engineering-101
[112] SudalaiRajkumar的Prompt工程指南: https://github.com/SudalaiRajkumar/Talks\_Webinars/blob/master/Slides/PromptEngineering\_20230208.pdf
[113] 传统语言生成模型的初学者友好指南 - LaMBDA指南: https://aitestkitchen.withgoogle.com/how-lamda-works
[114] Cohere的生成AI:第一部分 - 模型提示: https://txt.cohere.ai/generative-ai-part-1
[115] OpenAI API的提示工程最佳实践: https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api
[116] 如何书写良好的提示: https://andymatuschak.org/prompts
[117] 大语言模型的提示工程完全介绍: https://www.mihaileric.com/posts/a-complete-introduction-to-prompt-engineering
[118] 提示工程指南:如何设计出完美的提示: https://richardbatt.co.uk/prompt-engineering-guide-how-to-engineer-the-perfect-prompts
[119] 快速工程化GPT-3的3个原则: https://www.linkedin.com/pulse/3-principles-prompt-engineering-gpt-3-ben-whately
[120] 用于ChatGPT提示工程化的通用框架: https://medium.com/@thorbjoern.heise/a-generic-framework-for-chatgpt-prompt-engineering-7097f6513a0b
[121] 提示编程的方法: https://generative.ink/posts/methods-of-prompt-programming
[122] Awesome ChatGPT Prompts: https://github.com/f/awesome-chatgpt-prompts
[123] 最佳的100+稳定的Diffusion prompts: https://mpost.io/best-100-stable-diffusion-prompts-the-most-beautiful-ai-text-to-image-prompts
[124] DALLE提示书: https://dallery.gallery/the-dalle-2-prompt-book
[125] OpenAI Cookbook: https://github.com/openai/openai-cookbook
[126] 由Microsoft提供的Prompt Engineering: https://microsoft.github.io/prompt-engineering
[127] ChatGPT高级提示工程: https://www.youtube.com/watch?v=bBiTR\_1sEmI
[128] ChatGPT:初学者的5个提示工程秘密: https://www.youtube.com/watch?v=2zg3V66-Fzs
[129] CMU高级自然语言处理2022:提示: https://youtube.com/watch?v=5ef83Wljm-M&feature=shares
[130] 提示工程-一个新的职业?: https://www.youtube.com/watch?v=w102J3\_9Bcs&ab\_channel=PatrickDebois
[131] ChatGPT指南:通过更好的提示提高10倍结果: https://www.youtube.com/watch?v=os-JX1ZQwIA
[132] 语言模型和提示工程:NLP中提示方法的系统调查: https://youtube.com/watch?v=OsbUfL8w-mo&feature=shares
[133] 提示工程101:自动补全、零样本、一次样本和少样本提示: https://youtube.com/watch?v=v2gD8BHOaX4&feature=shares
[134] OpenAI Discord: https://discord.com/invite/openai
[135] PromptsLab Discord: https://discord.gg/m88xfYMbK6
[136] 学习 Prompting: https://discord.gg/7enStJXQzD
[137] r/ChatGPT Discord: https://discord.com/invite/r-chatgpt-1050422060352024636
[138] MidJourney Discord: https://discord.com/invite/MidJourney
[139] 贡献指南: contributing.md

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论