shareMCP
开发文档
开发文档
shareMCP

最大的MCP服务器和客户端集合,轻松搜索和发现

资源

  • 文档
  • 指南
  • API

社区

  • 博客
  • github

关于

  • 关于我们
  • 隐私政策
  • 服务条款

© 2025 shareMCP. 保留所有权利。

    mcp-openai

    mzxrai/mcp-openai
    mmzxrai
    更新于 8/18/2025
    首页mcp-openai

    mcp-openai 仓库详解

    欢迎探索由 mzxrai 开发的 mcp-openai 仓库!这个项目为用户提供了一种无缝的方式,通过 Claude Desktop 应用与 OpenAI 的各种强大模型进行交互。在这篇文档中,我们将深入解析这个仓库的背景、功能特性、安装步骤、使用方法以及开发注意事项。

    项目概述

    mcp-openai 是一个 Model Context Protocol (MCP) 服务器,设计初衷是让用户能直接在 Claude 桌面应用中与 OpenAI 的多种模型进行对话。这种集成不仅简化了交互流程,更让用户能够充分利用这些前沿的人工智能技术。

    功能特性

    • OpenAI 模型的直接集成:用户可以直接从 Claude 应用中与 OpenAI 模型进行交互,无需中间网络请求。
    • 支持多个模型:无论是强大的 gpt-4o,还是轻量化的 gpt-4o-mini 和 o1-mini,用户都有多种选择。
    • 简便的信息传递接口:设计简单的消息传递机制,提高用户体验。
    • 基础错误处理:即使是初期版本,也具备处理基础错误的能力,保障用户的使用体验。

    先决条件

    在使用该项目之前,请确保您的环境满足以下条件:

    • 已在本地安装 Node.js 版本 18 或更高(包含npm和npx)。
    • 已下载安装 Claude Desktop 应用。
    • 已申请并获取 OpenAI API 密钥。

    安装步骤

    为了让您的 Claude Desktop 应用能够调用 OpenAI 的 MCP 服务器,请按照以下步骤进行配置:

    1. 首先,确保您已经安装了 Claude Desktop 应用,并拥有 OpenAI 的 API 密钥。

    2. 然后,打开(或创建)Claude 的配置文件 claude_desktop_config.json,在 macOS 系统中,该文件通常位于
      ~/Library/Application\ Support/Claude/claude_desktop_config.json
      目录下,添加以下条目:
      {
        "mcpServers": {
          "mcp-openai": {
            "command": "npx",
            "args": ["-y", "@mzxrai/mcp-openai@latest"],
            "env": {
              "OPENAI_API_KEY": "在此输入您的API密钥(从https://platform.openai.com/api-keys获取)"
            }
          }
        }
      }
      

      这段配置会使 Claude Desktop 每次在需要时自动启动 OpenAI MCP 服务器。

    使用方法

    在完成安装后,您可以直接开启聊天功能。当需要使用 OpenAI 模型时,例如 o1 模型,只需简单地对 Claude 说:
    Can you ask o1 what it thinks about this problem?
    
    或者直接咨询 gpt-4o 的看法:
    What does gpt-4o think about this?
    

    当前服务器支持以下模型:

    • 默认使用的 gpt-4o
    • 轻量版本 gpt-4o-mini
    • 预览版 o1-preview
    • 轻量版 o1-mini

    开发人员指南

    对于开发者而言,该项目提供了一套简单易用的开发命令:

    1. 安装依赖:使用 pnpm install 安装项目所需的所有依赖项。
    2. 构建项目:通过运行 pnpm build 来构建整个项目。
    3. 实时监控:使用 pnpm watch 命令在开发过程中实时监控和编译代码更改。
    4. 开发模式运行:开发模式下,可以用 pnpm dev 命令进行调试和运行。

    问题排除

    本项目目前处于 alpha 版本,可能存在一些未解决的错误。如果您遇到问题,请检查 Claude Desktop 的 MCP 日志,使用以下命令查看最近日志:

    tail -n 20 -f ~/Library/Logs/Claude/mcp*.log
    

    应用场景与潜在价值

    利用此项目,用户能够在本地桌面环境中充分发挥 OpenAI 模型的潜力。这在需要快速模型调用、解决复杂问题以及进行人机对话研究等场景中具有重要价值。

    系统要求

    • 必须拥有 Node.js 18 或以上的版本。
    • 需要申请并设置 OpenAI API 密钥。

    已验证的平台

    • macOS
    • 尚未验证的 Linux

    许可证

    本项目采用 MIT 许可证,更多详情请查阅相关许可证文件。

    作者信息

    该项目由 mzxrai 创作和维护。

    通过仔细阅读以上文档,您应该能够顺利安装、配置、并使用 mcp-openai 项目。同时,对于开发者,也为您提供了基本的指南以便于进一步开发和贡献。

    关于 mcp-openai
    MCP OpenAI Server允许从Claude桌面应用中无缝集成并使用OpenAI模型,支持多种模型选择。

    部署安装命令:

    { "mcpServers": { "mcp-openai": { "env": { "OPENAI_API_KEY": "your-api-key-here" }, "args": [ "-y", "@mzxrai/mcp-openai@latest" ], "command": "npx" } } }

    服务统计

    955查看次数
    128使用人数
    85质量评分
    无状态服务
    安装难度: 简单
    部署环境: 云端/本地
    服务特性
    MCP服务器
    OpenAI集成
    JavaScript

    相关MCP

    查看更多

    mcp-server-openai

    这个MCP服务器允许使用MCP协议从Claude直接查询OpenAI模型,简化了模型集成。

    查看详情

    openai-tool2mcp

    openai-tool2mcp是一个轻量级桥梁,将OpenAI内置工具封装为MCP服务器,可与Claude等MCP兼容的模型一起使用。

    查看详情

    mzxrai_mcp-openai

    此MCP服务器整合了OpenAI的多个模型,提供简单的消息传递界面,支持从Claude应用程序中调用这些模型。

    查看详情