模型上下文协议 (MCP) 是一个开放协议,用于标准化应用程序如何向 LLM 提供工具和上下文。LangChain 代理可以使用 langchain-mcp-adapters 库在 MCP 服务器上定义的工具。

快速开始

安装 langchain-mcp-adapters 库:
pip install langchain-mcp-adapters
langchain-mcp-adapters 使代理能够使用在一个或多个 MCP 服务器上定义的工具。
MultiServerMCPClient 默认是无状态的。每次工具调用都会创建一个新的 MCP ClientSession,执行工具,然后清理干净。有关更多详细信息,请参阅有状态会话部分。
Accessing multiple MCP servers
import asyncio
from langchain_mcp_adapters.client import MultiServerMCPClient    
from langchain.agents import create_agent

async def main():
    client = MultiServerMCPClient(
        {
            "math": {
                "transport": "stdio",  # Local subprocess communication
                "command": "python",
                # 您的 math_server.py 文件的绝对路径
                "args": ["/path/to/math_server.py"],
            },
            "weather": {
                "transport": "http",  # HTTP-based remote server
                # 确保您的天气服务器在端口 8000 上启动
                "url": "http://localhost:8000/mcp",
            }
        }
    )

    tools = await client.get_tools()
    agent = create_agent(
        "claude-sonnet-4-6",
        tools    
    )
    math_response = await agent.ainvoke(
        {"messages": [{"role": "user", "content": "what's (3 + 5) x 12?"}]}
    )
    weather_response = await agent.ainvoke(
        {"messages": [{"role": "user", "content": "what is the weather in nyc?"}]}
    )
    print(math_response)
    print(weather_response)

if __name__ == "__main__":
    asyncio.run(main())

自定义服务器

要创建自定义 MCP 服务器,请使用 FastMCP 库:
pip install fastmcp
要使用 MCP 工具服务器测试您的代理,请使用以下示例:
from fastmcp import FastMCP

mcp = FastMCP("Math")

@mcp.tool()
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b

@mcp.tool()
def multiply(a: int, b: int) -> int:
    """Multiply two numbers"""
    return a * b

if __name__ == "__main__":
    mcp.run(transport="stdio")

传输

MCP 支持不同的传输机制用于客户端-服务器通信。

HTTP

http 传输(也称为 streamable-http)使用 HTTP 请求进行客户端-服务器通信。有关更多详细信息,请参阅 MCP HTTP 传输规范
client = MultiServerMCPClient(
    {
        "weather": {
            "transport": "http",
            "url": "http://localhost:8000/mcp",
        }
    }
)

传递请求头

通过 HTTP 连接到 MCP 服务器时,您可以使用连接配置中的 headers 字段包含自定义请求头(例如,用于身份验证或跟踪)。这支持 sse(已被 MCP 规范弃用)和 streamable_http 传输。
Passing headers with MultiServerMCPClient
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain.agents import create_agent

client = MultiServerMCPClient(
    {
        "weather": {
            "transport": "http",
            "url": "http://localhost:8000/mcp",
            "headers": {
                "Authorization": "Bearer YOUR_TOKEN",
                "X-Custom-Header": "custom-value"
            },
        }
    }
)
tools = await client.get_tools()
agent = create_agent("openai:gpt-4.1", tools)
response = await agent.ainvoke({"messages": "what is the weather in nyc?"})

身份验证

langchain-mcp-adapters 库在底层使用官方的 MCP SDK,它允许您通过实现 httpx.Auth 接口来提供自定义身份验证机制。
from langchain_mcp_adapters.client import MultiServerMCPClient

client = MultiServerMCPClient(
    {
        "weather": {
            "transport": "http",
            "url": "http://localhost:8000/mcp",
            "auth": auth,
        }
    }
)

stdio

客户端将服务器作为子进程启动,并通过标准输入/输出进行通信。非常适合本地工具和简单设置。
与 HTTP 传输不同,stdio 连接本质上是有状态的:子进程在客户端连接的生命周期内持续存在。但是,当使用 MultiServerMCPClient 而没有显式会话管理时,每次工具调用仍然会创建一个新会话。请参阅有状态会话以管理持久连接。
client = MultiServerMCPClient(
    {
        "math": {
            "transport": "stdio",
            "command": "python",
            "args": ["/path/to/math_server.py"],
        }
    }
)

有状态会话

默认情况下,MultiServerMCPClient无状态的:每次工具调用都会创建一个新的 MCP 会话,执行工具,然后清理干净。 如果您需要控制 MCP 会话的生命周期(例如,当使用跨工具调用维护上下文的有状态服务器时),您可以使用 client.session() 创建一个持久的 ClientSession
Using MCP ClientSession for stateful tool usage
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.tools import load_mcp_tools
from langchain.agents import create_agent

client = MultiServerMCPClient({...})

# 显式创建会话
async with client.session("server_name") as session:
    # 将会话传递给工具、资源或提示以加载
    tools = await load_mcp_tools(session)
    agent = create_agent(
        "anthropic:claude-3-7-sonnet-latest",
        tools
    )

核心功能

工具

工具 允许 MCP 服务器公开 LLM 可调用的可执行函数,以执行操作——如查询数据库、调用 API 或与外部系统交互。LangChain 将 MCP 工具转换为 LangChain 工具,使它们可以直接在任何 LangChain 代理或工作流程中使用。

加载工具

使用 client.get_tools() 从 MCP 服务器检索工具并将其传递给您的代理:
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain.agents import create_agent

client = MultiServerMCPClient({...})
tools = await client.get_tools()
agent = create_agent("claude-sonnet-4-6", tools)

结构化内容

MCP 工具可以返回结构化内容以及人类可读的文本响应。当工具需要返回机器可解析的数据(如 JSON)以及显示给模型的文本时,这非常有用。 当 MCP 工具返回 structuredContent 时,适配器将其包装在 MCPToolArtifact 中并将其作为工具的产物返回。您可以使用 ToolMessage 上的 artifact 字段访问它。您还可以使用拦截器来自动处理或转换结构化内容。 从产物中提取结构化内容 调用代理后,您可以从响应中的工具消息访问结构化内容:
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain.agents import create_agent
from langchain.messages import ToolMessage

client = MultiServerMCPClient({...})
tools = await client.get_tools()
agent = create_agent("claude-sonnet-4-6", tools)

result = await agent.ainvoke(
    {"messages": [{"role": "user", "content": "Get data from the server"}]}
)

# 从工具消息中提取结构化内容
for message in result["messages"]:
    if isinstance(message, ToolMessage) and message.artifact:
        structured_content = message.artifact["structured_content"]
通过拦截器附加结构化内容 如果您希望结构化内容在对话历史中可见(对模型可见),您可以使用拦截器自动将结构化内容附加到工具结果:
import json

from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.interceptors import MCPToolCallRequest
from mcp.types import TextContent

async def append_structured_content(request: MCPToolCallRequest, handler):
    """Append structured content from artifact to tool message."""
    result = await handler(request)
    if result.structuredContent:
        result.content += [
            TextContent(type="text", text=json.dumps(result.structuredContent)),
        ]
    return result

client = MultiServerMCPClient({...}, tool_interceptors=[append_structured_content])

多模态工具内容

MCP 工具可以在其响应中返回多模态内容(图像、文本等)。当 MCP 服务器返回包含多个部分的内容(如文本和图像)时,适配器会将它们转换为 LangChain 的标准内容块。您可以通过 ToolMessage 上的 content_blocks 属性访问标准化表示:
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain.agents import create_agent

client = MultiServerMCPClient({...})
tools = await client.get_tools()
agent = create_agent("claude-sonnet-4-6", tools)

result = await agent.ainvoke(
    {"messages": [{"role": "user", "content": "Take a screenshot of the current page"}]}
)

# 从工具消息访问多模态内容
for message in result["messages"]:
    if message.type == "tool":
        # 原始内容(提供商原生格式)
        print(f"Raw content: {message.content}")

        # 标准内容块  #
        for block in message.content_blocks:
            if block["type"] == "text":
                print(f"Text: {block['text']}")
            elif block["type"] == "image":
                print(f"Image URL: {block.get('url')}")
                print(f"Image base64: {block.get('base64', '')[:50]}...")
这允许您以与提供商无关的方式处理多模态工具响应,无论底层 MCP 服务器如何格式化其内容。

资源

资源 允许 MCP 服务器公开可供客户端读取的数据——如文件、数据库记录或 API 响应。LangChain 将 MCP 资源转换为 Blob 对象,这些对象提供了用于处理文本和二进制内容的统一接口。

加载资源

使用 client.get_resources() 从 MCP 服务器加载资源:
from langchain_mcp_adapters.client import MultiServerMCPClient

client = MultiServerMCPClient({...})

# 从服务器加载所有资源
blobs = await client.get_resources("server_name")

# 或通过 URI 加载特定资源
blobs = await client.get_resources("server_name", uris=["file:///path/to/file.txt"])

for blob in blobs:
    print(f"URI: {blob.metadata['uri']}, MIME type: {blob.mimetype}")
    print(blob.as_string())    # 对于文本内容
您还可以直接使用 load_mcp_resources 与会话一起以获得更多控制:
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.resources import load_mcp_resources

client = MultiServerMCPClient({...})

async with client.session("server_name") as session:
    # 加载所有资源
    blobs = await load_mcp_resources(session)

    # 或通过 URI 加载特定资源
    blobs = await load_mcp_resources(session, uris=["file:///path/to/file.txt"])

提示

提示 允许 MCP 服务器公开可供客户端检索和使用的可重用提示模板。LangChain 将 MCP 提示转换为消息,使它们易于集成到基于聊天的工作流程中。

加载提示

使用 client.get_prompt() 从 MCP 服务器加载提示:
from langchain_mcp_adapters.client import MultiServerMCPClient

client = MultiServerMCPClient({...})

# 按名称加载提示
messages = await client.get_prompt("server_name", "summarize")

# 带参数加载提示
messages = await client.get_prompt(
    "server_name",
    "code_review",
    arguments={"language": "python", "focus": "security"}
)

# 在您的工作流程中使用消息
for message in messages:
    print(f"{message.type}: {message.content}")
您还可以直接使用 load_mcp_prompt 与会话一起以获得更多控制:
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.prompts import load_mcp_prompt

client = MultiServerMCPClient({...})

async with client.session("server_name") as session:
    # 按名称加载提示
    messages = await load_mcp_prompt(session, "summarize")

    # 带参数加载提示
    messages = await load_mcp_prompt(
        session,
        "code_review",
        arguments={"language": "python", "focus": "security"}
    )

高级功能

工具拦截器

MCP 服务器作为独立进程运行——它们无法访问 LangGraph 运行时信息,如存储上下文或代理状态。拦截器通过在 MCP 工具执行期间为您提供对此运行时上下文的访问来弥合这一差距。 拦截器还提供类似中间件的工具调用控制:您可以修改请求、实现重试、动态添加请求头,或完全短路执行。
部分描述
访问运行时上下文读取用户 ID、API 密钥、存储数据和代理状态
状态更新和命令使用 Command 更新代理状态或控制图形流
编写拦截器修改请求、组合拦截器和错误处理的模式

访问运行时上下文

当 MCP 工具在 LangChain 代理中使用时(通过 create_agent),拦截器接收对 ToolRuntime 上下文的访问。这提供了对工具调用 ID、状态、配置和存储的访问——支持访问用户数据、持久化信息和控制代理行为的强大模式。
访问特定于用户的配置,如用户 ID、API 密钥或权限,这些在调用时传递:
Inject user context into MCP tool calls
from dataclasses import dataclass
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.interceptors import MCPToolCallRequest
from langchain.agents import create_agent

@dataclass
class Context:
    user_id: str
    api_key: str

async def inject_user_context(
    request: MCPToolCallRequest,
    handler,
):
    """Inject user credentials into MCP tool calls."""
    runtime = request.runtime
    user_id = runtime.context.user_id    
    api_key = runtime.context.api_key    

    # 将用户上下文添加到工具参数
    modified_request = request.override(
        args={**request.args, "user_id": user_id}
    )
    return await handler(modified_request)

client = MultiServerMCPClient(
    {...},
    tool_interceptors=[inject_user_context],
)
tools = await client.get_tools()
agent = create_agent("gpt-4.1", tools, context_schema=Context)

# 使用用户上下文调用
result = await agent.ainvoke(
    {"messages": [{"role": "user", "content": "Search my orders"}]},
    context={"user_id": "user_123", "api_key": "sk-..."}
)
有关更多上下文工程模式,请参阅上下文工程工具

状态更新和命令

拦截器可以返回 Command 对象来更新代理状态或控制图形执行流程。这对于跟踪任务进度、在代理之间切换或提前结束执行非常有用。
Mark task complete and switch agents
from langchain.agents import AgentState, create_agent
from langchain_mcp_adapters.interceptors import MCPToolCallRequest
from langchain.messages import ToolMessage
from langgraph.types import Command

async def handle_task_completion(
    request: MCPToolCallRequest,
    handler,
):
    """Mark task complete and hand off to summary agent."""
    result = await handler(request)

    if request.name == "submit_order":
        return Command(
            update={
                "messages": [result] if isinstance(result, ToolMessage) else [],
                "task_status": "completed",
            },
            goto="summary_agent",
        )

    return result
使用 Commandgoto="__end__" 提前结束执行:
End agent run on completion
async def end_on_success(
    request: MCPToolCallRequest,
    handler,
):
    """End agent run when task is marked complete."""
    result = await handler(request)

    if request.name == "mark_complete":
        return Command(
            update={"messages": [result], "status": "done"},
            goto="__end__",
        )

    return result

自定义拦截器

拦截器是包装工具执行的异步函数,支持请求/响应修改、重试逻辑和其他横切关注点。它们遵循”洋葱”模式,其中列表中的第一个拦截器是最外层。 基本模式 拦截器是一个接收请求和处理程序的异步函数。您可以在调用处理程序之前修改请求,在调用之后修改响应,或完全跳过处理程序。
Basic interceptor pattern
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.interceptors import MCPToolCallRequest

async def logging_interceptor(
    request: MCPToolCallRequest,
    handler,
):
    """Log tool calls before and after execution."""
    print(f"Calling tool: {request.name} with args: {request.args}")
    result = await handler(request)
    print(f"Tool {request.name} returned: {result}")
    return result

client = MultiServerMCPClient(
    {"math": {"transport": "stdio", "command": "python", "args": ["/path/to/server.py"]}},
    tool_interceptors=[logging_interceptor],
)
修改请求 使用 request.override() 创建修改后的请求。这遵循不可变模式,保持原始请求不变。
Modifying tool arguments
async def double_args_interceptor(
    request: MCPToolCallRequest,
    handler,
):
    """Double all numeric arguments before execution."""
    modified_args = {k: v * 2 for k, v in request.args.items()}
    modified_request = request.override(args=modified_args)
    return await handler(modified_request)

# 原始调用:add(a=2, b=3) 变为 add(a=4, b=6)
在运行时修改请求头 拦截器可以根据请求上下文动态修改 HTTP 请求头:
Dynamic header modification
async def auth_header_interceptor(
    request: MCPToolCallRequest,
    handler,
):
    """Add authentication headers based on the tool being called."""
    token = get_token_for_tool(request.name)
    modified_request = request.override(
        headers={"Authorization": f"Bearer {token}"}
    )
    return await handler(modified_request)
组合拦截器 多个拦截器以”洋葱”顺序组合——列表中的第一个拦截器是最外层:
Composing multiple interceptors
async def outer_interceptor(request, handler):
    print("outer: before")
    result = await handler(request)
    print("outer: after")
    return result

async def inner_interceptor(request, handler):
    print("inner: before")
    result = await handler(request)
    print("inner: after")
    return result

client = MultiServerMCPClient(
    {...},
    tool_interceptors=[outer_interceptor, inner_interceptor],
)

# 执行顺序:
# 外层:之前 -> 内层:之前 -> 工具执行 -> 内层:之后 -> 外层:之后
错误处理 使用拦截器捕获工具执行错误并实现重试逻辑:
Retry on error
import asyncio

async def retry_interceptor(
    request: MCPToolCallRequest,
    handler,
    max_retries: int = 3,
    delay: float = 1.0,
):
    """Retry failed tool calls with exponential backoff."""
    last_error = None
    for attempt in range(max_retries):
        try:
            return await handler(request)
        except Exception as e:
            last_error = e
            if attempt < max_retries - 1:
                wait_time = delay * (2 ** attempt)    # 指数退避
                print(f"Tool {request.name} failed (attempt {attempt + 1}), retrying in {wait_time}s...")
                await asyncio.sleep(wait_time)
    raise last_error

client = MultiServerMCPClient(
    {...},
    tool_interceptors=[retry_interceptor],
)
您还可以捕获特定错误类型并返回后备值:
Error handling with fallback
async def fallback_interceptor(
    request: MCPToolCallRequest,
    handler,
):
    """Return a fallback value if tool execution fails."""
    try:
        return await handler(request)
    except TimeoutError:
        return f"Tool {request.name} timed out. Please try again later."
    except ConnectionError:
        return f"Could not connect to {request.name} service. Using cached data."

进度通知

订阅长时间运行的工具执行的进度更新:
Progress callback
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.callbacks import Callbacks, CallbackContext

async def on_progress(
    progress: float,
    total: float | None,
    message: str | None,
    context: CallbackContext,
):
    """Handle progress updates from MCP servers."""
    percent = (progress / total * 100) if total else progress
    tool_info = f" ({context.tool_name})" if context.tool_name else ""
    print(f"[{context.server_name}{tool_info}] Progress: {percent:.1f}% - {message}")

client = MultiServerMCPClient(
    {...},
    callbacks=Callbacks(on_progress=on_progress),
)
CallbackContext 提供:
  • server_name:MCP 服务器的名称
  • tool_name:正在执行的工具的名称(工具调用期间可用)

日志记录

MCP 协议支持来自服务器的日志通知。使用 Callbacks 类订阅这些事件。
Logging callback
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.callbacks import Callbacks, CallbackContext
from mcp.types import LoggingMessageNotificationParams

async def on_logging_message(
    params: LoggingMessageNotificationParams,
    context: CallbackContext,
):
    """Handle log messages from MCP servers."""
    print(f"[{context.server_name}] {params.level}: {params.data}")

client = MultiServerMCPClient(
    {...},
    callbacks=Callbacks(on_logging_message=on_logging_message),
)

征求意见

征求意见允许 MCP 服务器在工具执行期间向用户请求额外输入。服务器可以交互式地按需询问信息,而不是要求所有输入都是预先准备好的。

服务器设置

定义一个使用 ctx.elicit() 请求带有模式的用户输入的工具:
MCP server with elicitation
from pydantic import BaseModel
from mcp.server.fastmcp import Context, FastMCP

server = FastMCP("Profile")

class UserDetails(BaseModel):
    email: str
    age: int

@server.tool()
async def create_profile(name: str, ctx: Context) -> str:
    """Create a user profile, requesting details via elicitation."""
    result = await ctx.elicit(
        message=f"Please provide details for {name}'s profile:",
        schema=UserDetails,
    )
    if result.action == "accept" and result.data:
        return f"Created profile for {name}: email={result.data.email}, age={result.data.age}"
    if result.action == "decline":
        return f"User declined. Created minimal profile for {name}."
    return "Profile creation cancelled."

if __name__ == "__main__":
    server.run(transport="http")

客户端设置

通过向 MultiServerMCPClient 提供回调来处理征求意见请求:
Handling elicitation requests
from langchain_mcp_adapters.client import MultiServerMCPClient
from langchain_mcp_adapters.callbacks import Callbacks, CallbackContext
from mcp.shared.context import RequestContext
from mcp.types import ElicitRequestParams, ElicitResult

async def on_elicitation(
    mcp_context: RequestContext,
    params: ElicitRequestParams,
    context: CallbackContext,
) -> ElicitResult:
    """Handle elicitation requests from MCP servers."""
    # 在实际应用程序中,您会根据 params.message 和 params.requestedSchema 提示用户输入
    return ElicitResult(
        action="accept",
        content={"email": "user@example.com", "age": 25},
    )

client = MultiServerMCPClient(
    {
        "profile": {
            "url": "http://localhost:8000/mcp",
            "transport": "http",
        }
    },
    callbacks=Callbacks(on_elicitation=on_elicitation),
)

响应操作

征求意见回调可以返回三种操作之一:
操作描述
accept用户提供了有效输入。在 content 字段中包含数据。
decline用户选择不提供请求的信息。
cancel用户完全取消了操作。
Response action examples
# 接受带数据
ElicitResult(action="accept", content={"email": "user@example.com", "age": 25})

# 拒绝(用户不想提供信息)
ElicitResult(action="decline")

# 取消(中止操作)
ElicitResult(action="cancel")

其他资源