本文以LangChain框架为核心详细介绍了如何开发AI Agent。内容涵盖模型调用、工具封装、会话记忆保存等基础功能通过实操案例帮助读者理解Agent开发流程。LangChain简化了模型集成和工具调用并提供了记忆模块支持多轮对话。文章适合想要入门AI Agent开发的程序员和小白可收藏学习。26年一定是一个 Agent 大年我这边持续出系列文章帮助大家更好的落地 Agent今天的重点是程序员最常用的 Agent 框架 LangChain。只不过这东西可能由于 AI Coding 的成熟由给人看变成给 AI 看的。LangChain 既是一个开源的AI应用开发框架也是其背后同名公司LangChain的统称。该公司围绕AI应用开发构建了一套完整的产品矩阵包括广受欢迎的开源框架LangChain、用于构建复杂状态机的LangGraph以及企业级调试与监控平台LangSmith等。其中LangChain和LangGraph是社区中最活跃的两个开源项目。需要特别说明的是在LangChain 1.0版本之后这两个框架的定位发生了重要变化LangGraph 成为底层的智能体编排引擎专注于有状态、多轮、高度定制化的智能体流程控制而LangChain 则在此基础上演变为上层应用开发框架提供了更高阶的抽象、丰富的工具集成和便捷的智能体构建能力。简单来说LangChain 封装了 LangGraph 的复杂性让开发者能够快速搭建标准智能体而LangGraph 则为需要深度控制流程、自定义逻辑的场景提供了灵活的图式编程能力。对于大多数智能体应用比如本文将要构建的旅行智能助手LangChain 已足够胜任它简洁的API和开箱即用的组件能让我们更专注于业务逻辑本身注意1本文中的langchain 的版本1.0注意2案例很简单但一定要和前几篇文章对照阅读才知道Agent是什么才知道LangChain的意义如何开发一个AgentPS有些老板不喜欢用Agent喜欢用智能体所以我尽量讲究老板们。在上文中我们说了开发智能体的核心其实就三件事模型 工具 记忆。模型负责核心的推理决策工具用来落地执行具体的业务操作记忆则负责留存历史对话给模型的推理提供足够的上下文支撑。如果有同学还没搞懂什么是 AI Agent或者不知道该怎么设计、开发一个 AI Agent接下来咱们就实操起来 看看怎么用 LangChain 实现模型调用、工具封装、会话记忆保存这些基础功能最终完整开发出一个能跑起来的 AI Agent。模型调用lagnchain 提供了很多标准的方法来调用各个厂商的模型官网给出了完成整的集成列表https://docs.langchain.com/oss/python/integrations/providers/overview可以进入官网。查看支持的模型厂商具体是如何使用。这里我们用deepseek举例这个是langchain 支持deepseek模型的集成包可以直接使用from langchain_deepseekimportChatDeepSeek modelChatDeepSeek(model...,temperature0,max_tokensNone,timeoutNone,max_retries2,api_keyos.getenv(DEEPSEEK_API_KEY),# other params...)其他模型提供商也有对应的集成包大家可以自行去官网寻找也可以使用 openAI的标准格式基本上所有模型都支持这种方式modelChatOpenAI(modeldeepseek-chat,api_keyos.getenv(DEEPSEEK_API_KEY),base_urlhttps://api.deepseek.com,temperature0.7通过上面的方法我们就能得到一个模型实例 model接下来就可以调用这个 model 实例使用invoke或者stream方法向模型发起请求并获取它的返回结果了modelChatOpenAI(modeldeepseek-chat,api_keyos.getenv(DEEPSEEK_API_KEY),base_urlhttps://api.deepseek.com,temperature0.7)messages[{role:system,content:你是一个有用的助手。},{role:user,content:你是谁}]resultmodel.invoke(messages)print(result.content)# 流失输出resultmodel.stream(messages)forchunkinresult: print(chunk.content)声明工具在 LangChain 里定义工具函数特别简单用 tool 装饰器就能快速搞定 这也是最常用、最便捷的方式# 定义工具函数tool def get_weather(destination,date):# 实际调用天气 APIreturnf{destination} {date} 天气晴朗tool def get_attractions(destination):returnf{destination} 的热门景点有故宫、颐和园...# ... 其他函数模型调用工具的关键是靠工具名称和描述来判断该不该用这个工具。如果只是写个普通函数给 LangChain 用它会默认把函数名当工具名、函数的文档字符串当描述。但这种默认写法往往描述得不够精准模型很可能理解错工具用途导致调用出错。所以想让模型“精准识别、正确调用”工具最好的方式是显式定义给工具指定清晰的名称、详细的描述还要给每个参数也加上说明。推荐的做法就是用 tool 装饰器搭配 Annotated 和 Field 来补充这些详细的元数据让模型完全明白工具的作用和用法from langchain_core.toolsimporttool from typingimportAnnotated from pydanticimportField tool(name_or_callableget_weather,description获取指定城市指定日期的天气信息)def get_weather(destination: Annotated[str, Field(description城市名称如西安)], date: Annotated[str, Field(description日期格式 YYYY-MM-DD如2025-05-20)])-str:returnf{destination} {date} 天气晴朗tool(name_or_callableget_attractions,description获取指定城市的景点推荐)def get_attractions(destination: Annotated[str, Field(description城市名称如北京)])-str:# 实际开发中这里应调用景点 APIreturnf{city} 的热门景点有故宫、颐和园、天坛。定义智能体在 LangChain 中开发一个智能体非常简单。框架提供了标准方法 create_agent所有智能体都可以通过该方法快速定义。我们只需要传入几个核心参数即可完成一个智能体的创建**模型**通过 LangChain 的模型调用接口得到的大模型实例。**工具**声明好的工具列表。下面是一个完整的示例演示如何创建一个最简单的智能体并使用它from langchain_openaiimportChatOpenAI from langchain.agentsimportcreate_react_agent from langchain_core.toolsimporttoolimportos# 定义工具假设已有 get_weather, get_attractions# 示例工具函数已在前文定义此处略# 初始化模型modelChatOpenAI(modeldeepseek-chat,api_keyos.getenv(DEEPSEEK_API_KEY),base_urlhttps://api.deepseek.com,temperature0.7)# 工具列表tools[get_weather, get_attractions]# 创建智能体agentcreate_agent(modelmodel,toolstools)# 准备输入消息messages{messages:[{role:system,content:你是一个有用的助手。},{role:user,content:我想去北京玩能帮我看看天气和景点吗}]}# 调用智能体resultagent.invoke(messages)# 输出最终答案print(result[messages][-1].content)这样我们就完成了一个最简单的智能体。LangChain 的 create_agent 方法默认采用 ReAct 模式Reasoning Acting运行智能体其工作流程如下模型接收用户消息进行推理判断是否需要调用工具。如果需要工具模型输出工具调用指令框架自动执行对应工具并将结果作为新的消息添加到对话中。更新后的消息再次输入给模型重复上述步骤直到模型认为信息收集完毕给出最终答案。整个流程完全由框架自动管理开发者只需提供模型和工具即可获得一个具备自主决策能力的智能体。添加记忆上一节我们构建了一个能够调用工具的智能体它目前还没有记忆能力每次对话都是独立的无法记住之前的对话历史。为了让智能体具备多轮对话的能力LangChain 提供了完善的记忆Memory模块记忆分为两类短期记忆和长期记忆接下来我们一起使用langchain提供的方法来实现他们**短期记忆**通常指模型上下文窗口内的对话历史。由于大模型的上下文窗口有限我们无法将无限长的对话历史全部发送给模型。因此短期记忆通常采用“滑动窗口”或“摘要总结”的方式只保留最近的几轮对话或关键信息。在 LangChain中短期记忆的持久化是通过 Checkpointer 机制实现的。Checkpointer 机制在构建智能体时我们通常希望它能够记住之前的对话内容。LangGraph 通过 checkpointer 来保存每一轮交互后的状态StateCheckpointer:负责在每一步Step结束后将当前的状态包括消息历史、变量等保存起来。thread_id:当我们需要继续之前的对话时只需要提供相同的 thread_idCheckpointer 就会加载之前的状态从而实现“记忆”功能。InMemorySaver 是一个基于内存的检查点保存器**原理**它将状态数据保存在 Python 的字典内存中。**特点**速度快无需额外依赖如数据库。**局限性**程序重启后数据会丢失。因此仅适用于开发调试或不需要持久化的场景。**生产环境替代方案**在生产环境中通常会使用 PostgresSaver (基于 PostgreSQL) 或 SqliteSaver 等持久化方案以确保服务重启后记忆不丢失。from langgraph.checkpoint.memoryimportInMemorySaver# ...agentcreate_agent(# ...checkpointerInMemorySaver())# 调用时指定 thread_idconfig{configurable:{thread_id:1}}resultagent.invoke(inputmessages,configconfig)**长期记忆**为了解决上下文窗口的限制我们需要将历史对话持久化存储如数据库、向量库。在需要时通过检索算法如语义相似度搜索找到与当前问题最相关的历史记录注入到 Prompt 中。这也就是 RAG检索增强生成在记忆模块中的应用。下面我们以一个基于向量数据库的长期记忆实现为例向量化存储实现我们使用 Chroma 作为向量数据库配合 DashScope 的 Embedding 模型来实现记忆的存储与检索。首先我们需要初始化 Embedding 模型和向量数据库importos from langchain_community.embeddingsimportDashScopeEmbeddings from langchain_chromaimportChroma from langchain_core.documentsimportDocument# 初始化向量模型embeddingsDashScopeEmbeddings(modeltext-embedding-v4,dashscope_api_keyos.getenv(DASHSCOPE_API_KEY))# 初始化向量存储# persist_directory 指定数据持久化目录vectorstoreChroma(embedding_functionembeddings,persist_directory./chroma_db,collection_namechat_history)保存记忆当对话发生时我们需要将用户的输入和 AI 的回复保存下来。为了区分不同用户和会话我们在 metadata 中记录 user_id 和 session_iddef save_messages(messages: str, user_id: int, session_id: int): 保存用户输入和AI输出的会话记录# 将对话内容封装为 Document 对象并添加元数据docDocument(page_contentmessages,metadata{user_id:user_id,session_id:session_id})# 添加到向量数据库vectorstore.add_documents([doc])检索记忆在进行新一轮对话前我们可以根据用户的输入Query在向量库中检索相关的历史记录作为上下文提供给模型。这里我们还支持根据 user_id 和 session_id 进行过滤确保只检索当前用户或会话的记忆def load_messages(query: str, user_id: int, session_id: int): 加载用户输入和AI输出的会话记录# 构建过滤条件filters[]ifuser_id: filters.append({user_id:user_id})ifsession_id: filters.append({session_id:session_id})iflen(filters)1: filter_dict{$and:filters}eliflen(filters)1: filter_dictfilters[0]else: filter_dictNone# 执行相似度搜索返回最相关的 top-k 记录iffilter_dict: docsvectorstore.similarity_search(queryquery,k3,filterfilter_dict)else: docsvectorstore.similarity_search(queryquery,k3)returndocs这里就做好了长期记忆的保存和检索接下来让我们在智能体中增加消息的保存和检索。在短期记忆中可以在create_agent中 加入一个 checkpointerInMemorySaver()就可以实现短期记忆langchain就会将历史对话消息添加到提示词中那么我们如何把长期记忆添加到提示词中呢这里就不得不提到langchain的中间件Middleware了通过middleware添加长期记忆Middleware 提供了强大的生命周期钩子允许我们在模型调用前后、工具执行前后进行深度干预。中间件生命周期钩子我们需要自己定义一个中间件 add_long_memory 使用wrap_model_call在模型调用前 通过 load_messages 方法 查询 长期记忆 并将消息追加到messages中wrap_model_call def add_long_memory(request: ModelRequest, handler: Callable[[ModelRequest], ModelResponse])-ModelResponse: print(fModel call: {request})messagerequest.messages[-1]ifmessage.typehuman:embedding_docsload_messages(message.content, config[configurable][user_id], config[configurable][session_id])embedding_message\n.join([doc.page_contentfordocinembedding_docs])request.messages.append(ChatMessage(contentembedding_message,rolesystem))returnhandler(request)现在我们可以给agent添加长期记忆了只需要在create_agent中 添加一个参数middleware[add_long_memory()]Agent就会在调用模型前 调用add_long_memory 方法 将load_messages 查询到的历史消息添加到提示词中。完整的智能体代码如下config: RunnableConfig{configurable:{thread_id:1,user_id:1,session_id:1}}llmChatOpenAI(modeldeepseek-chat,api_keyos.getenv(DEEPSEEK_API_KEY),base_urlhttps://api.deepseek.com,temperature0.7)messages{messages:[{role:system,content:你是一个旅游规划助手。},{role:user,content:user_message}]}tools[get_weather, get_attractions]agentcreate_agent(llm,toolstools,middleware[add_long_memory()],checkpointerInMemorySaver())resultagent.invoke(inputmessages,configconfig)ai_messageresult[messages][-1].content save_messages(messagesuser_message ai_message,user_idconfig[configurable][user_id],session_idconfig[configurable][session_id])运行效果如下结语好了聊了这么多我们快速来回顾一下。用 LangChain 做一个智能体其实依旧是围绕三个核心模型、工具、记忆。**模型**不管你想用 DeepSeek 还是 OpenAILangChain 都给你封装好了一行代码换模型不用操心各家 API 的差异。**工具**把你要做的事写成函数加个 tool 装饰器再写清楚它是干什么的、参数是什么模型就能看懂、会调用。整个过程你会发现其实挺简单的。**记忆**分两类。短期记忆用 checkpointer设个 thread_id 就能让智能体记住刚才的对话长期记忆稍微费点功夫得借助向量数据库存历史再在模型调用前把相关的旧聊天翻出来塞给它。我们中间件那里演示的就是这个思路。把这些一组合一个能自己琢磨、会查天气、能聊天的旅行助手就搭起来了。而且 LangChain 这套设计还挺贴心的你要是想快速实现功能就用它的高层封装要是想精细控制每一步底下还有 LangGraph 和中间件让你折腾。最后想说LangChain 确实把智能体开发的门槛拉低了不少。不管是做个简单的问答还是想玩复杂的工作流你都可以从今天聊的这几个组件开始慢慢往上添东西。有空的话不妨自己动手搭一个试试代码跑起来的后还是挺有成就感的。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2026 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取