在构建基于大型语言模型(LLM)的应用时,通常不可能立即使用模型而无需任何调整。为了保持高实用性,我们可以选择以下几种方法之一:
- Prompt Engineering(提示工程)
- Fine-tuning(微调)
- RAG(Retrieval-Augmented Generation,检索增强生成)
- 混合方法(RAG + 微调)
影响因素
以下两个重要因素会影响我们的决策:
- 外部知识需求 :你的任务需要多少外部知识。
- 适应性需求 :适应性意味着改变模型的行为、词汇、写作风格等。
如何决定
-
使用RAG :如果你需要基于自定义知识库生成输出,并且LLM的词汇和写作风格保持不变。
-
使用微调 :如果你想要改变模型的结构(行为)而不是知识。
-
使用提示工程 :如果你没有自定义知识库,也不想改变模型的行为。
-
混合方法(RAG + 微调) :如果你的应用需要自定义知识库和模型行为的改变。