盘天下 | 免费精选资源分享

MCP‑Use:简化LLM与MCP服务器工具集成 可将任何 LLM 连接到任何 MCP 服务器

编程开发 dianjiao 2025-04-18 964 0


MCP‑Use:简化LLM与MCP服务器工具集成 可将任何 LLM 连接到任何 MCP 服务器MCP‑Use:简化LLM与MCP服务器工具集成 可将任何 LLM 连接到任何 MCP 服务器

MCP‑Use介绍

MCP(模型上下文协议)是一种开放标准,旨在为大型 语言 模型(LLM)提供统一的工具和 数据 源接口,实现与外部应用的无缝连接。MCP‑Use 作为一款开源客户端库,通过自定义代理让任意支持工具调用的LLM(如 OpenAI、Anthropic、Groq、LLaMA 等)连接到任何MCP服务器,进而构建具备网页浏览、文件操作等工具访问能力的 智能 代理。

该库操作简便,仅需六行代码即可创建首个MCP能力代理;支持通过 HTTP 端口直接连接运行中的MCP服务器,满足 Web 上的异构部署需求;内置动态服务选择功能,代理可从配置池中自动挑选最适合当前任务的MCP服务器;允许在单个代理实例中同时使用多个MCP服务器,实现复杂 工作 流(如结合网页浏览与3D建模)的灵活调度;提供工具访问控制,可禁用文件系统或 网络 等潜在高危工具,以提升安全性和可控性。

MCP‑Use主要特点

?易于使用 创建您的第一个 MCP 代理,您只需要 6 行代码
LLM 灵活性 可与任何支持工具调用的 langch ai n 支持的 LLM 配合使用(OpenAI、Anthropic、Groq、LLama 等)。
HTTP 支持 直接连接到在特定 HTTP 端口上运行的 MCP 服务器
⚙️动态服务器选择 代理可以从可用池中动态选择最适合给定任务的 MCP 服务器
?多服务器支持 在单个代理中同时使用多个 MCP 服务器
?️工具限制 限制文件系统或网络访问等潜在危险的工具

MCP‑Use快速启动

使用 p ip

pip install mcp-use

或者从源安装:

git clone https:// github .com/pietrozullo/mcp-use.git cd mcp-use pip install -e .

安装 LangChain 提供程序

mcp_use 通过 LangChain 与各种 LLM 提供程序兼容。您需要根据所选的 LLM 安装相应的 LangChain 提供程序包。例如:

# For OpenAI pip install langchain-openai # For Anthropic pip install langchain-anthropic # For other providers, check the [LangChain chat models documentation](https:// python .langchain.com/docs/integrations/chat/)

并将您想要使用的提供商的 API 密钥添加到您的.env文件中。

OPENAI_API_KEY= ANTHROPIC_API_KEY=

重要提示:只有具备工具调用功能的模型才能与 mcp_use 配合使用。请确保您选择的模型支持函数调用或工具使用。

MCP‑Use项目地址

GitHub:https://github.com/pietrozullo/mcp-use

【新用户手机夸克APP转存可以获得1TB免费空间】

夸克网盘「电影」精选合集:https://pan.quark.cn/s/0755e002f4b6

夸克网盘「纪录片」精选合集:https://pan.quark.cn/s/8c76cd47e8be

夸克网盘「短剧」精选合集:https://pan.quark.cn/s/0f27fae4301e

夸克网盘「音乐」精选合集:https://pan.quark.cn/s/c999e39a7f49

夸克网盘「教程」精选合集:https://pan.quark.cn/s/27984fcacdad

夸克网盘「书籍」精选合集:https://pan.quark.cn/s/2532536273dd

冲上云霄

转载请注明出处,本文链接:https://www.80srz.com/pantx/159582.html

(1)
收藏 (0)
取消

感谢您的支持,我们会继续努力的!

扫码支持
扫码打赏,你说多少就多少

打开 支付宝 扫一扫,即可进行扫码打赏哦

评论列表