LLM 系列 | 07:ChatGPT Prompt实践:以智能客服邮件为例

简介

漠漠水田飞白鹭,阴阴夏木啭黄鹂。小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖铁观音的小女孩。紧接前面几篇ChatGPT Prompt工程系列:LLM 系列 | 04:ChatGPT Prompt编写指南05:如何优化ChatGPT Prompt?06:ChatGPT Prompt实践:文本摘要&推断&转换。今天这篇小作文是《ChatGPT Prompt Engineering for Developers》的第4篇笔记,主要介绍如何用ChatGPT进行文本扩展,并以如何 根据客户评价和情感撰写自定义电子邮件 为例详细说明。

这里指的文本扩展(Expanding)是将短文本,例如一组说明或主题列表,输入到大型语言模型LLM中,让模型生成更长的文本,例如基于某个主题的电子邮件或论文。这样做有一些很实用的用途,例如将大型语言模型用作头脑风暴的工具。但这种做法也存在一些问题,例如某些人可能会使用它来生成大量垃圾邮件。因此,当你使用大型语言模型LLM的这些功能时,请仅以负责任、有益于人民群众且符合社会主义核心价值观的方式使用它们。

在这个章节中,将介绍如何基于 OpenAI API 生成适用于每个客户评价的客服电子邮件。在这个过程还将尝试改变模型的另一个输入参数:温度系数。该参数控制模型生成回复的多样性程度。

环境准备

        
          
import openai  
import os  
  
openai.api_key  = "sk-xxxx"   
  
import os  
os.environ['HTTP\_PROXY'] = "http://XXX:xx"  
os.environ['HTTPS\_PROXY'] = "http://XXXX:xx"  
  
# 一个封装 OpenAI 接口的函数,参数为 Prompt,返回对应结果  
def get_completion(prompt, model="gpt-3.5-turbo", temperature=0):  
    '''  
    prompt: 对应的提示  
    model: 调用的模型,默认为 gpt-3.5-turbo(ChatGPT),有内测资格的用户可以选择 gpt-4  
    temperature: 温度系数  
    '''  
    messages = [{"role": "user", "content": prompt}]  
    response = openai.ChatCompletion.create(  
        model=model,  
        messages=messages,  
        temperature=temperature, # 模型输出的温度系数,控制输出的随机程度  
    )  
    # 调用 OpenAI 的 ChatCompletion 接口  
    return response.choices[0].message["content"]  
  

      
定制客服邮件

如何根据客户评价和情感撰写自定义电子邮件作为回复?使用 LLM 根据客户评价和评论情感生成定制电子邮件,对于给定的客户评价和情感,生成自定义回复。

首先给出一个示例,包括一个评论及对应的情感。


        
          
# 我们可以在推理那章学习到如何对一个评论判断其情感倾向  
sentiment = "negative"  
  
# 一个产品的评价  
review = f"""  
他们在11月份的季节性销售期间以约49美元的价格出售17件套装,折扣约为一半。\  
但由于某些原因(可能是价格欺诈),到了12月第二周,同样的套装价格全都涨到了70美元到89美元不等。\  
11件套装的价格也上涨了大约10美元左右。\  
虽然外观看起来还可以,但基座上锁定刀片的部分看起来不如几年前的早期版本那么好。\  
不过我打算非常温柔地使用它,例如,\  
我会先在搅拌机中将像豆子、冰、米饭等硬物研磨,然后再制成所需的份量,\  
切换到打蛋器制作更细的面粉,或者在制作冰沙时先使用交叉切割刀片,然后使用平面刀片制作更细/不粘的效果。\  
制作冰沙时,特别提示:\  
将水果和蔬菜切碎并冷冻(如果使用菠菜,则轻轻煮软菠菜,然后冷冻直到使用;\  
如果制作果酱,则使用小到中号的食品处理器),这样可以避免在制作冰沙时添加太多冰块。\  
大约一年后,电机发出奇怪的噪音,我打电话给客服,但保修已经过期了,所以我不得不再买一个。\  
总的来说,这些产品的总体质量已经下降,因此它们依靠品牌认可和消费者忠诚度来维持销售。\  
货物在两天内到达。  
"""  

      

这里使用文本推断章节中的情感提取Prompt。这是一个关于搅拌机的客户评价,现在我们将 根据情感定制回复

这里的指令是:假设你是一个客户服务AI助手,你的任务是为客户发送电子邮件回复,根据通过三个反引号分隔的客户电子邮件,生成一封回复以感谢客户的评价。

具体如下:


          
prompt = f"""  
你是一位客户服务的AI助手。  
你的任务是给一位重要客户发送邮件回复。  
根据客户通过“```”分隔的评价,生成回复以感谢客户的评价。提醒模型使用评价中的具体细节  
用简明而专业的语气写信。  
作为“AI客户代理”签署电子邮件。  
客户评论:  
```{review}```  
评论情感:{sentiment}  
"""  
response = get_completion(prompt)  
print(response)  

      

生成结果如下:


        
          
尊敬的客户,  
  
感谢您对我们产品的评价。我们非常重视您的反馈,对于您提到的问题,我们深表歉意。我们会尽快采取措施,改进我们的产品质量和服务。  
  
我们很高兴您对我们的交付速度感到满意。同时,我们也非常感谢您分享了您对我们产品的使用方法和技巧。我们会将这些细节纳入我们的产品使用说明中,以帮助更多的客户更好地使用我们的产品。  
  
如果您有任何其他问题或建议,请随时联系我们的客服团队。我们将竭诚为您服务。  
  
此致,  
  
AI客户代理  

      
使用温度系数

接下来,我们将使用语言模型中一个称为“温度”(温度系数)的参数,它将控制模型回复的多样性。我们可以将温度视为模型探索或随机性的程度。其实就是探索和利用,即Exploration和Exploitation直接的平衡。

例如,在一个特定的短语中,"我的最爱食品"最有可能的下一个词是"比萨",其次最有可能的是"寿司"和"塔可"。因此,在温度系数为零时,模型将总是选择最有可能的下一个词,而在较高的温度系数下,它还将选择其中一个不太可能的词。在更高的温度系数下,它甚至可能选择"塔可",而这种可能性仅为五分之一。可以想象,随着模型继续生成更多单词的最终响应,"我的最爱食品是比萨"将会与第一个响应"我的最爱食品是塔可"产生差异。因此,随着模型的继续,这两个响应将变得越来越不同。

一般来说,在构建需要可预测响应的应用程序时,建议将温度系数设置为零。在前面的小作文里面,一直将温度系数设置为零。如果正在尝试构建一个可靠和可预测的系统,应该将温度系数设置为零,以确保输出结果的一致性。如果尝试以更具创意的方式使用模型,可能需要更广泛地输出不同的结果,那么可以使用更大的温度系数。

下面将温度系数设置为 0.7:


          
prompt = f"""  
你是一名客户服务的AI助手。  
你的任务是给一位重要的客户发送邮件回复。  
根据通过“```”分隔的客户电子邮件生成回复,以感谢客户的评价。  
如果情感是积极的或中性的,感谢他们的评价。  
如果情感是消极的,道歉并建议他们联系客户服务。  
请确保使用评论中的具体细节。  
以简明和专业的语气写信。  
以“AI客户代理”的名义签署电子邮件。  
客户评价:```{review}```  
评论情感:{sentiment}  
"""  
response = get_completion(prompt, temperature=0.7)  
print(response)  

      

输出结果如下:


        
          
尊敬的客户,  
  
非常感谢您对我们产品的评价。我们对您的不满深表歉意。我们一直致力于提供高质量的产品和服务,但显然我们在这次失败中没有达到您的期望。  
  
我们非常关注您提到的问题,并确保这些问题得到解决。我们建议您联系我们的客户服务,以寻求进一步的帮助,并希望我们能够取得您的信任和满意。  
  
再次感谢您对我们产品的反馈,我们会尽全力改进和提高我们的服务质量。祝您生活愉快!  
  
此致,  
  
AI客户代理  

      

在温度系数为零时,每次执行相同的Prompt时,每次运行的输出结果应该是相同的。而使用温度为0.7,则每次都会获得不同的输出。

所以,可以看到它与我们之前收到的电子邮件不同。让我们再次执行它,以显示我们将再次获得不同的电子邮件。

因此,建议试试改变温度系数的值,以查看输出如何变化。总之,在更大的温度系数下,模型的输出更加随机。几乎可以将其视为在更大的温度系数下,AI助手更易分心,但也许更有创造力。

0
0
0
0
评论
未登录
暂无评论