LangGraph 智能体状态管理与决策

LangGraph 智能体状态管理与决策

LangGraph 智能体状态管理与决策


请添加图片描述

🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯


写在最前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

本次演示围绕 Bright Data Web MCP 与 LangGraph 的集成实操 展开,完整展示了从获取大模型 API Key、创建大模型会话,到获取 Bright Data API Key、通过 MultiServerMCPClient 连接 Web MCP 服务器,并在 Bright Data 后台进一步启用浏览器自动化工具、扩展智能体可调用能力的全流程;同时结合 LangGraph 的 StateGraph,搭建了包含大模型节点、工具调用节点和路由规则节点的循环式 AI 研究智能体。演示过程中,通过“打开网页并持续滚动,直到提取 30 条语录的作者、内容与标签”这一实际任务,直观呈现了智能体基于实时网页数据进行搜索、抓取、交互和推理的完整效果。实测结果表明,LangGraph 提供了清晰可控的智能体状态管理与决策机制,而 Bright Data Web MCP 则补足了真实网页访问与动态页面交互能力,使 AI Agent 无需将复杂抓取逻辑硬编码进提示词或业务代码中,也能更稳定地完成生产级研究任务。

赠送25美金的注册链接

LangGraph 智能体状态管理与决策

 from __future__ import annotations import argparse import asyncio import json import os import sys from typing import Any, Literal from urllib.parse import urlencode from dotenv import load_dotenv from langchain_core.messages import HumanMessage, SystemMessage, ToolMessage from langchain_openai import ChatOpenAI from langchain_mcp_adapters.client import MultiServerMCPClient from langgraph.graph import END, START, MessagesState, StateGraph # webmcp-langgraph-demo.py file SYSTEM_PROMPT ="""You are a web research assistant. Task: - Research the user's topic using Google search results and a few sources. - Return 6–10 simple bullet points. - Add a short "Sources:" list with only the URLs you used. How to use tools: - First call the search tool to get Google results. - Select 3–5 reputable results and scrape them. - If scraping fails, try a different result. Constraints: - Use at most 5 sources. - Prefer official docs or primary sources. - Keep it quick: no deep crawling. """ def make_llm_call_node(llm_with_tools): async def llm_call(state: MessagesState): messages = [SystemMessage(content=SYSTEM_PROMPT)] + state["messages"] ai_message = await llm_with_tools.ainvoke(messages) return {"messages": [ai_message]} return llm_call def make_tool_node(tools_by_name: dict): async def tool_node(state: MessagesState): last_ai_msg = state["messages"][-1] tool_results = [] for tool_call in last_ai_msg.tool_calls: tool = tools_by_name.get(tool_call["name"]) if not tool: tool_results.append( ToolMessage( content=f"Tool not found: {tool_call['name']}", tool_call_id=tool_call["id"], ) ) continue # MCP tools are typically async observation = ( await tool.ainvoke(tool_call["args"]) if hasattr(tool, "ainvoke") else tool.invoke(tool_call["args"]) ) tool_results.append( ToolMessage( content=str(observation), tool_call_id=tool_call["id"], ) ) return {"messages": tool_results} return tool_node def should_continue(state: MessagesState) -> Literal["tool_node", END]: last_message = state["messages"][-1] if getattr(last_message, "tool_calls", None): return "tool_node" return END async def main(): # Load environment variables from .env load_dotenv() # Read Bright Data token bd_token = os.getenv("BRIGHTDATA_TOKEN") if not bd_token: raise ValueError("Missing BRIGHTDATA_TOKEN") # Connect to Bright Data Web MCP server client = MultiServerMCPClient({ "bright_data": { "url": f"https://mcp.brightdata.com/mcp?token={bd_token}", "transport": "streamable_http", } }) #&groups=advanced_scraping,browser # Fetch all available MCP tools (search, scrape, etc.) tools = await client.get_tools() tools_by_name = {tool.name: tool for tool in tools} print(f"Available tools: {list(tools_by_name.keys())}") # Debug: print available tool names # Initialize the LLM and allow it to call MCP tools openai_api_key = os.getenv("OPENAI_API_KEY") llm = ChatOpenAI(model="gpt-4o-all", temperature=0, api_key=openai_api_key, base_url="https://poloapi.top/v1",) llm_with_tools = llm.bind_tools(tools) # Build the LangGraph agent graph = StateGraph(MessagesState) graph.add_node("llm_call", make_llm_call_node(llm_with_tools)) graph.add_node("tool_node", make_tool_node(tools_by_name)) # Graph flow: # START → LLM → (tools?) → LLM → END graph.add_edge(START, "llm_call") graph.add_conditional_edges("llm_call", should_continue, ["tool_node", END]) graph.add_edge("tool_node", "llm_call") agent = graph.compile() # Example research query topic = "使用工具访问https://quotes.toscrape.com/scroll,想办法拿到30条quotes提取 quote、author、tags" # You can change this topic as needed # Run the agent result = await agent.ainvoke( { "messages": [ HumanMessage(content=f"Research this topic:\n{topic}") ] }, # Prevent infinite loops config={"recursion_limit": 50} ) # Print the final response print(result["messages"][-1].content) if __name__ == "__main__": asyncio.run(main())

hello,这里是 晓雨的笔记本 。如果你喜欢我的文章,欢迎三连给我鼓励和支持:👍点赞 📁 关注 💬评论,我会给大家带来更多有用有趣的文章。
原文链接 👉 ,⚡️更新更及时。

欢迎大家点开下面名片,添加好友交流。

Read more

OpenClaw插件开发指南:30分钟学会为AI数字员工添加新技能

OpenClaw插件开发指南:30分钟学会为AI数字员工添加新技能

文章目录 * 前言 * 一、先搞懂:OpenClaw到底是啥?(小白秒懂版) * 二、开发前必看:环境准备(5分钟搞定) * 1. 系统要求 * 2. 一键安装OpenClaw * 3. 验证环境 * 三、核心原理:OpenClaw插件为啥叫“技能乐高”? * 四、实战开始:30分钟写第一个插件(查天气技能) * 第一步:创建插件文件夹 * 第二步:写插件“身份证”——SKILL.md * 第三步:写功能实现脚本(index.js) * 第四步:配置环境变量 * 第五步:加载插件并测试 * 五、进阶技巧:让你的插件更专业(新手必学) * 1. 插件安全规范(官方强制要求) * 2. 插件优化小技巧 * 3. 插件发布(

2026年 Trae 收费模式改变 —— AI 编程“免费午餐”终结后的生存法则

2026年 Trae 收费模式改变 —— AI 编程“免费午餐”终结后的生存法则

关键词:Trae, Cursor, AI 编程成本, Token 计费, Agent 模式, 职业转型 大家好,我是飞哥!👋 2026年,AI编辑器Trae 也将收费模式改为按 Token 收费。 有些开发者开始动摇:“AI 编辑器越来越贵,是不是应该放弃使用,回归纯手写代码?” 对于用户来说,这无疑是一次涨价。但在飞哥看来,这次涨价背后释放了两个非常关键的信号: 1. AI 技术已进入稳定成熟期: 厂商不再需要通过“免费/低价补贴”来换取用户数据进行模型迭代。产品已经足够成熟,有底气接受市场真实定价的检验。 2. 倒逼用户进化,优胜劣汰: 涨价是一道筛子。它在要求用户大幅提升自己的 AI 使用水平(如 Prompt 技巧、Context 管理)。 * 低级使用者(只会问“怎么写代码”

用AI辅助电路设计?是的,Proteus 9.1发布了,硬件工程师有福气了哦~~~~

来吧,兄弟们,用ai搞电路设计,它来了! abcenter Electronics 官方网站现已正式发布 Proteus 9.1 版本。此次更新以全新的 AI 助手为核心,同时在 PCB 设计流程和仿真教学方面带来了多项实用改进。 一、 EDAi 与 ProPilot/ProTutor 智能助手 Proteus 9.1 最重大的更新是引入了 EDAi——一个内置于 Proteus 设计套件中的智能 AI 设计助手。在商业版中它被称为 ProPilot,在教育版中则为 ProTutor。 这个 AI 助手的核心优势在于 “感知您的设计上下文”。它由强大的大语言模型驱动,能够理解您正在设计的原理图,并结合实际的工程知识,在多个层面提供帮助: 代码编写助理:对于嵌入式开发,ProPilot 能充当您的编码助手。由于能“

深度拆解 OpenClaw:从架构原理到落地实战,吃透 AI Agent 执行网关的底层逻辑

深度拆解 OpenClaw:从架构原理到落地实战,吃透 AI Agent 执行网关的底层逻辑

❝ 本文所有核心内容均来自OpenClaw官方GitHub仓库、架构白皮书及官方文档,确保100%准确、零主观臆断;兼顾入门可读性与资深开发者的深度需求,从底层逻辑到实战落地全链路覆盖。 官方权威来源:OpenClaw GitHub仓库 | 官方架构文档 | 官方文档中心 一、开篇:OpenClaw到底是什么?—— 打破AI“能说不能做”的核心范式 1.1 官方权威定义 OpenClaw(曾用名Clawdbot、Moltbot)是一款基于MIT开源协议、本地优先的自托管AI Agent执行网关,由奥地利独立开发者Peter Steinberger(PSPDFKit创始人)发起并主导开发,核心定位是连接大语言模型(LLM)、通讯渠道与系统工具的中枢桥梁,让AI从“对话建议者”升级为“自主执行者”,实现自然语言指令到端到端任务落地的全闭环。 通俗来讲:ChatGPT、Claude等传统对话式AI,只能给你“做事的步骤清单”;而OpenClaw能听懂你的自然语言指令,直接调用大模型做决策、操作你的设备/系统/软件,把事情做完,