漫威宇宙入侵免安装绿色中文版
145M · 2025-12-19
LangGraph 被广泛认为是构建生产级代理系统的首选。今天我们将通过深度研究助手这个示例,深入探讨 LangGraph 的工作流程和 MCP 的集成模式。如果对你有所帮助,记得告诉身边有需要的朋友。
npm install -g @mcp-servers/firecrawl # 安装命令
LangGraph的StateGraph实现:
| 命令格式 | 功能说明 |
|---|---|
| @prompt: | 加载特定提示模板 |
| @resource: | 加载指定资源 |
| @use_resource: | 执行资源查询 |
from langgraph.graph import StateGraph
workflow = StateGraph(AgentState)
workflow.add_node("research", research_tool_node)
workflow.add_node("web_crawl", firecrawl_node)
workflow.add_conditional_edges(
"agent",
decide_next_action,
branches={"research": "research", "web": "web_crawl"}
) # 动态路由逻辑
RAG即服务:拆分为独立工具而非固定流水线
工具热插拔:新增工具只需注册到MCP服务器
@mcp_tool
def pdf_extractor(url: str) -> str:
"""Firecrawl网页PDF提取工具"""
return firecrawl_api.scrape(url, params={"extract_pdf": True})
if user_input.startswith("@prompt:"):
load_prompt(user_input.split(":")[1]) # 动态提示加载
elif user_input.startswith("@use_resource:"):
uri, query = parse_resource_cmd(user_input)
execute_resource_tool(uri, query) # 按需资源调用
git clone https://gith*ub*.c*om/example/mcp-research-assistant
cd mcp-research-assistant && uv sync # 依赖安装
# config.yaml
firecrawl:
api_key: YOUR_API_KEY
mcp_endpoint: "stdio" # 或 https://api.*fi*recr*awl.io
# 终端1:启动自定义MCP服务器
python research_server.py --port 8033
# 终端2:启动Firecrawl服务
firecrawl-mcp --transport stdio
添加图片注释,不超过 140 字(可选)
{
"tool_output": "10篇相关论文摘要...",
"next_step": "是否需要深度网络搜索?"
}
该架构通过MCP协议实现工具/资源的标准化封装,结合LangGraph的状态化工作流引擎,构建出具备动态决策能力的研究助手。核心创新点在于:
好了,今天的分享就到这里,点个小红心,我们下期见。