mzxrai_mcp-openai 仓库详细介绍
欢迎来到 mzxrai_mcp-openai 仓库的世界,这是一个由 MCP-Mirror 团队创建的仓库,旨在为用户提供一个强大的 Model Context Protocol (MCP) 服务器,以便无缝集成 OpenAI 的模型。这是一个 Claude 专属的能力,让我们通过这篇文档一一了解这个仓库的点点滴滴。
简介
mzxrai_mcp-openai 是一个 GitHub 上的仓库,URL 为 https://github.com/MCP-Mirror/mzxrai_mcp-openai。作为 OpenAI 原始项目的镜像,这个仓库不仅全面而稳定地呈现原有项目的功能,同时也可能会在某些方面增加一些便捷的使用特性。
本仓库的主要功能是充当一个 MCP 服务器,简单来说,它能让用户通过 Claude 直接使用 OpenAI 的各种模型。这项创新功能使得文本生成、对话管理等复杂任务变得非常容易。
功能概览
该 MCP 服务器的主要功能包括:
-
与 OpenAI 聊天模型的直接集成
这使得用户可以直接通过 Claude 使用先进的自然语言处理模型,而无需中间环节。此外,其支持的多种模型满足了不同的使用场景需求。 -
多模型支持
支持使用以下 OpenAI 模型:gpt-4o
gpt-4o-mini
o1-preview
o1-mini
-
简单的信息传递接口
-
完善的基础错误处理
通过这些特性,该项目极大地方便了用户体验,降低了上手难度,并拓展了 Claude 的应用边界。
先决条件
使用此 MCP 服务器,用户需要具备以下环境:
- 已安装 Node.js,版本需不低于 18,同时需包含
npm
和npx
。 - 已安装 Claude 桌面应用。
- 拥有一个有效的 OpenAI API 密钥。
安装步骤
在进行安装之前,请确保您已下载安裝了 Claude 桌面应用,并获取了有效的 OpenAI API 密钥。
-
将以下内容添加至您的
claude_desktop_config.json
文件中(Mac 系统用户可在
找到该文件):~/Library/Application\ Support/Claude/claude_desktop_config.json
{ "mcpServers": { "mcp-openai": { "command": "npx", "args": ["-y", "@mzxrai/mcp-openai@latest"], "env": { "OPENAI_API_KEY": "your-api-key-here (从 https://platform.openai.com/api-keys 获取)" } } } }
-
配置完成后,Claude 桌面应用将能够在需要时自动调用 OpenAI MCP 服务器。
使用说明
启动 Claude 后,在任何对话中请求 Claude 使用 OpenAI 的模型即可。例如,您可以这样说:
Can you ask o1 what it thinks about this problem?
或
What does gpt-4o think about this?
在交互中,默认情况下,服务器将使用
gpt-4o
模型,但您也可以根据需要选择其他模型。工具
openai_chat
提供一个简单的接口以向 OpenAI 的聊天补全 API 发送消息。接受的参数包括:messages
: 消息数组(必需)model
: 指定要使用的模型(可选,默认值为gpt-4o
)
常见问题
本项目仍处于 alpha 阶段,可能会有一些未知的错误。如果您遇到了问题,可以查看 Claude 桌面的 MCP 日志文件以进行排查:
tail -n 20 -f ~/Library/Logs/Claude/mcp*.log
开发指南
如果您有兴趣参与项目的开发,可以按照以下步骤进行:
# 安装依赖项
pnpm install
# 构建项目
pnpm build
# 监听更改
pnpm watch
# 以开发模式运行
pnpm dev
平台要求与验证
- 本项目需要 Node.js ≥ 18 版本,并需有效的 OpenAI API 密钥。
- 已在 macOS 平台上通过验证。
- 暂未在 Linux 平台测试和验证。
授权信息
本仓库采用 MIT 许可证开源。
作者信息
项目由 mzxrai 开发。
这篇文档旨在帮助用户更好地理解和使用 mzxrai_mcp-openai 项目,充分挖掘 OpenAI 技术与 Claude 框架结合的潜力,为智能对话等应用场景提供新的思路和可能性。