LangGraph结构化输出详解:让智能体返回格式化数据

大模型企业应用人工智能与算法

引言

在使用大语言模型进行开发时,我们经常需要模型返回特定格式的数据,而不是纯文本。比如在构建AI应用时,我们可能需要模型返回JSON格式的数据用于后续处理,或者返回符合特定数据结构的对象。这就是结构化输出的价值所在。

本文将深入探讨LangGraph中的结构化输出功能,重点介绍.with\_structured\_output()方法的使用,并通过实际代码示例展示如何在项目中应用这一技术。

picture.image

什么是结构化输出?

结构化输出是指LLM(或LangGraph工作流中的其他节点)返回的输出被格式化为明确定义的、机器可读的对象,如字典、列表、自定义类或JSON对象,而不是纯文本。

对比示例:

  • 非结构化输出: "答案是北京。"

  • 结构化输出: {"城市": "北京", "国家": "中国", "人口": 2154}

    为什么需要结构化输出?


在LangGraph中,一个节点的输出通常作为另一个节点的输入。如果输出是结构化的,下一步就能准确知道期望什么字段/数据以及如何访问它们。这大大提高了系统的可靠性和可维护性。

核心技术:.with_structured_output()方法

.with\_structured\_output()是获得结构化输出的最简单、最可靠的方法。它专为那些原生支持结构化输出API(如工具/函数调用或JSON模式)的模型实现,并在后台使用这些功能。

基本工作原理

该方法接受一个模式作为输入,指定所需输出属性的名称、类型和描述。它返回一个类似于模型的Runnable,但输出的不是字符串或消息,而是对应于给定模式的对象。

实现方式详解

方式一:使用Pydantic类

使用Pydantic的主要优点是模型生成的输出将被验证。如果任何必需的字段缺失或任何字段的类型错误,Pydantic将抛出错误。

  
from pydantic import BaseModel, Field  
from langchain\_deepseek import ChatDeepSeek  
from typing import Optional  
  
# 定义Pydantic模型  
class ProductInfo(BaseModel):  
    """产品基本信息"""  
      
    name: str = Field(description="产品名称")  
    price: float = Field(description="产品价格,单位为元")  
    category: str = Field(description="产品所属类别")  
    rating: Optional[int] = Field(  
        default=None, description="产品评分,1-10分"  
    )  
  
# 初始化模型  
llm = ChatDeepSeek(model="deepseek-chat")  
structured\_llm = llm.with\_structured\_output(ProductInfo)  
  
# 调用示例  
result = structured\_llm.invoke("帮我分析一下iPhone 15这款手机")  
print(result)  
# 输出: ProductInfo(name='iPhone 15', price=5999.0, category='智能手机', rating=9)  

方式二:使用TypedDict

如果您不想使用Pydantic验证,或者希望能够流式输出模型结果,可以使用TypedDict类定义模式。

  
from typing import Optional  
from typing\_extensions import Annotated, TypedDict  
  
# 使用TypedDict定义模式  
class StudentInfo(TypedDict):  
    """学生基本信息"""  
      
    name: Annotated[str, ..., "学生姓名"]  
    age: Annotated[int, ..., "学生年龄"]  
    major: Annotated[str, ..., "所学专业"]  
    score: Annotated[Optional[float], None, "平均成绩,0-100分"]  
  
structured\_llm = llm.with\_structured\_output(StudentInfo)  
  
result = structured\_llm.invoke("张明,20岁,计算机科学专业,平均成绩85分")  
print(result)  
# 输出: {'name': '张明', 'age': 20, 'major': '计算机科学', 'score': 85.0}  

方式三:使用JSON Schema

您也可以直接传入JSON Schema字典,这种方式不需要导入额外的类,但代码会更冗长一些。

  
json\_schema = {  
    "title": "公司信息",  
    "description": "公司基本信息",  
    "type": "object",  
    "properties": {  
        "company\_name": {  
            "type": "string",  
            "description": "公司名称",  
        },  
        "industry": {  
            "type": "string",   
            "description": "所属行业",  
        },  
        "employee\_count": {  
            "type": "integer",  
            "description": "员工总数",  
            "default": None,  
        },  
    },  
    "required": ["company\_name", "industry"],  
}  
  
structured\_llm = llm.with\_structured\_output(json\_schema)  
result = structured\_llm.invoke("分析一下腾讯公司")  
print(result)  
# 输出: {'company\_name': '腾讯', 'industry': '互联网科技', 'employee\_count': 110715}  

LangGraph中的完整应用示例

下面是一个完整的LangGraph应用示例,展示如何在工作流中使用结构化输出:

  
import json  
from pydantic import BaseModel, Field  
from langchain\_core.messages import HumanMessage, AIMessage  
from langchain\_deepseek import ChatDeepSeek  
from langgraph.graph import StateGraph, MessagesState, END  
from dotenv import load\_dotenv  
  
load\_dotenv()  
  
# 定义结构化输出模型  
class AnalysisResult(BaseModel):  
    """文本分析结果"""  
    topic: str = Field(description="文本主要主题")  
    summary: str = Field(description="内容摘要,不超过100字")  
    keywords: list[str] = Field(description="提取的关键词列表")  
    sentiment: str = Field(description="情感倾向:积极/消极/中性")  
  
# 初始化模型  
model = ChatDeepSeek(model="deepseek-chat")  
structured\_llm = model.with\_structured\_output(AnalysisResult).with\_config(tags=["文本分析器"])  
  
# 定义分析节点  
def analysis\_node(state: MessagesState):  
    """对输入文本进行结构化分析"""  
    result = structured\_llm.invoke(state["messages"])  
    print(f"分析结果: {result}")  
      
    # 将分析结果转换为AIMessage  
    response\_content = f"""  
📊 分析报告  
主题: {result.topic}  
摘要: {result.summary}  
关键词: {', '.join(result.keywords)}  
情感倾向: {result.sentiment}  
    """.strip()  
      
    return {"messages": [AIMessage(content=response\_content)]}  
  
# 构建LangGraph工作流  
workflow = StateGraph(MessagesState)  
workflow.add\_node("分析", analysis\_node)  
workflow.set\_entry\_point("分析")  
workflow.add\_edge("分析", END)  
  
# 编译图  
graph = workflow.compile()  
  
# 测试用例  
def test\_analysis():  
    """测试文本分析功能"""  
    test\_text = """  
    人工智能技术正在快速发展,特别是大语言模型的出现,  
    为各个行业带来了前所未有的变革机会。从自动化客服到智能写作,  
    从代码生成到数据分析,AI正在重塑我们的工作方式。  
    虽然技术发展令人兴奋,但我们也需要关注AI伦理和安全性问题。  
    """  
      
    graph\_input = {"messages": [HumanMessage(content=f"请分析以下文本:{test\_text}")]}  
      
    # 运行分析  
    result = graph.invoke(graph\_input)  
    print("="*50)  
    print("最终输出:")  
    print(result["messages"][-1].content)  
  
# 执行测试  
if \_\_name\_\_ == "\_\_main\_\_":  
    test\_analysis()

多模式选择

有时我们需要让模型在多个输出格式之间进行选择。最简单的方法是创建一个具有Union类型属性的父模式:

  
from typing import Union  
from pydantic import BaseModel, Field  
  
class Joke(BaseModel):  
    """笑话内容"""  
    setup: str = Field(description="笑话的铺垫部分")  
    punchline: str = Field(description="笑话的笑点部分")  
    rating: Optional[int] = Field(default=None, description="有趣程度,1-10分")  
  
class ConversationalResponse(BaseModel):  
    """普通对话回应"""  
    response: str = Field(description="对用户查询的对话式回应")  
  
class FinalResponse(BaseModel):  
    """最终输出,可以是笑话或普通回应"""  
    final\_output: Union[Joke, ConversationalResponse]  
  
structured\_llm = llm.with\_structured\_output(FinalResponse)  
  
# 测试不同类型的输入  
print("=" * 30)  
print("请求笑话:")  
result1 = structured\_llm.invoke("给我讲个关于程序员的笑话")  
print(result1)  
  
print("=" * 30)  
print("普通对话:")  
result2 = structured\_llm.invoke("你今天怎么样?")  
print(result2)

流式输出支持

当输出类型是字典时(使用TypedDict类或JSON Schema定义时),我们可以从结构化模型中进行流式输出:

  
from typing\_extensions import Annotated, TypedDict  
  
class NewsSummary(TypedDict):  
    """新闻摘要信息"""  
    title: Annotated[str, ..., "新闻标题"]  
    summary: Annotated[str, ..., "新闻摘要内容"]  
    keywords: Annotated[list[str], ..., "新闻关键词"]  
  
structured\_llm = llm.with\_structured\_output(NewsSummary)  
  
print("流式输出示例:")  
for chunk in structured\_llm.stream("总结今天的科技新闻"):  
    print(chunk)

高级技巧

1. 原始输出处理

通过设置include\_raw=True,可以获取原始输出,便于调试和错误处理:

  
structured\_llm = llm.with\_structured\_output(AnalysisResult, include\_raw=True)  
  
result = structured\_llm.invoke("分析人工智能发展")  
print("原始输出:", result['raw'])  
print("解析结果:", result['parsed'])  
print("解析错误:", result['parsing\_error'])

2. 指定输出方法

对于支持多种结构化输出方法的模型,可以通过method参数指定使用的方法:

  
# 使用JSON模式  
structured\_llm = llm.with\_structured\_output(AnalysisResult, method="json\_mode")

最佳实践

  1. 选择合适的模式类型
    • 需要运行时验证 → 使用Pydantic的BaseModel
    • 仅需静态类型检查 → 使用TypedDict
    • 需要流式输出 → 使用TypedDict或JSON Schema
  2. 提供清晰的字段描述 :字段的名称和描述对模型理解输出格式非常重要
  3. 使用中文字段名 :在中文应用场景中,使用中文字段名可以提高模型的理解准确性
  4. 合理设置可选字段 :使用Optional类型和默认值来处理不确定的信息

总结

结构化输出是现代AI应用开发中的重要技术。通过LangGraph的.with\_structured\_output()方法,我们可以轻松让大语言模型返回格式化的数据,提高应用的可靠性和可维护性。

无论是使用Pydantic进行严格的数据验证,还是使用TypedDict进行灵活的字典操作,或是直接使用JSON Schema,都能满足不同场景下的需求。关键是根据具体的应用场景选择最合适的实现方式。

在实际项目中,建议优先使用Pydantic方式,因为它提供了最好的类型安全和数据验证功能。对于需要流式输出的场景,则可以考虑使用TypedDict方式。

通过合理运用这些技术,我们可以构建更加健壮和高效的AI应用系统。

picture.image

添加微信,备注” LLM “进入大模型技术交流群

picture.image

picture.image

如果你觉得这篇文章对你有帮助,别忘了点个赞、送个喜欢

/ 作者:致Great

/ 作者:欢迎转载,标注来源即可

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
IDC 大模型应用落地白皮书
大模型技术已深度融入业务实践,各企业期望其释放更大商业价值。 但大模型落地之路面临许多挑战和顾虑。 如何精准对接业务需求与发展蓝图,制定切实可行的大模型落地策略? IDC发布首个大模型应用策略与行动指南 一为您揭晓一
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论