MCP‑Use介绍

MCP(模型上下文协议)是一种开放标准,旨在为大型语言模型(LLM)提供统一的工具和数据源接口,实现与外部应用的无缝连接。MCP‑Use 作为一款开源客户端库,通过自定义代理让任意支持工具调用的LLM(如 OpenAI、Anthropic、Groq、LLaMA 等)连接到任何MCP服务器,进而构建具备网页浏览、文件操作等工具访问能力的智能代理。

该库操作简便,仅需六行代码即可创建首个MCP能力代理;支持通过 HTTP 端口直接连接运行中的MCP服务器,满足 Web 上的异构部署需求;内置动态服务选择功能,代理可从配置池中自动挑选最适合当前任务的MCP服务器;允许在单个代理实例中同时使用多个MCP服务器,实现复杂工作流(如结合网页浏览与3D建模)的灵活调度;提供工具访问控制,可禁用文件系统或网络等潜在高危工具,以提升安全性和可控性。


MCP‑Use主要特点

🔄

易于使用
创建您的第一个 MCP 代理,您只需要 6 行代码
🤖

LLM 灵活性
可与任何支持工具调用的 langchain 支持的 LLM 配合使用(OpenAI、Anthropic、Groq、LLama 等)。
🌐

HTTP 支持
直接连接到在特定 HTTP 端口上运行的 MCP 服务器
⚙️

动态服务器选择
代理可以从可用池中动态选择最适合给定任务的 MCP 服务器
🧩

多服务器支持
在单个代理中同时使用多个 MCP 服务器
🛡️

工具限制
限制文件系统或网络访问等潜在危险的工具


MCP‑Use快速启动

使用 pip:

pip install mcp-use

或者从源安装:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install -e .


安装 LangChain 提供程序

mcp_use 通过 LangChain 与各种 LLM 提供程序兼容。您需要根据所选的 LLM 安装相应的 LangChain 提供程序包。例如:

# For OpenAI
pip install langchain-openai

# For Anthropic
pip install langchain-anthropic

# For other providers, check the [LangChain chat models documentation](https://python.langchain.com/docs/integrations/chat/)

并将您想要使用的提供商的 API 密钥添加到您的

.env

文件中。

OPENAI_API_KEY=
ANTHROPIC_API_KEY=


重要提示

:只有具备工具调用功能的模型才能与 mcp_use 配合使用。请确保您选择的模型支持函数调用或工具使用。


MCP‑Use项目地址

GitHub:

https://github.com/pietrozullo/mcp-use