shareMCP
开发文档
开发文档
shareMCP

最大的MCP服务器和客户端集合,轻松搜索和发现

资源

  • 文档
  • 指南
  • API

社区

  • 博客
  • github

关于

  • 关于我们
  • 隐私政策
  • 服务条款

© 2025 shareMCP. 保留所有权利。

    pierrebrunelle_mcp-server-openai

    MCP-Mirror/pierrebrunelle_mcp-server-openai
    MMCP-Mirror
    更新于 7/25/2025
    首页pierrebrunelle_mcp-server-openai

    OpenAI MCP Server 中文详细介绍

    仓库概述

    欢迎来到 OpenAI MCP Server 仓库!此仓库是 pierrebrunelle/mcp-server-openai 的镜像仓库,由 MCP-Mirror 负责维护。其主要目的是通过 MCP 协议,让用户可以直接从 Claude 进行 OpenAI 模型的查询。该工具的开发体现了现代机器学习技术与标准化协议间的完美集成,极大地简化了用户请求 AI 服务的流程。

    原理与功能

    MCP 协议简介

    MCP(Message Connection Protocol)是一种通信协议,允许不同软件之间进行标准化交互。本项目利用 MCP 协议提供了一种新颖的方式,让用户能够方便地调用 OpenAI 的能力,从而在 Claude 平台上获得实时而智能的 AI 反馈。

    功能说明

    • 实时查询:通过 MCP 协议,用户可以直接询问 OpenAI 模型,获取即时反馈。
    • 灵活配置:允许用户自定义 Python 环境路径,并安全地存储和使用 OpenAI API 密钥。
    • 轻松集成:此工具可无缝集成至现有的 Claude 系统,大幅度提高查询效率和准确性。

    安装和配置

    环境需求

    本项目的运行主要依赖于以下环境:

    • Python (确保安装有最新版本,并正确配置了环境变量)
    • 必须拥有 OpenAI API Key

    确保在克隆和配置项目之前,以上环境均已准备完毕。

    安装步骤

    1. 克隆仓库:

      git clone https://github.com/MCP-Mirror/pierrebrunelle_mcp-server-openai
      cd mcp-server-openai
      
    2. 安装项目依赖:

      pip install -e .
      
    3. 配置 claude_desktop_config.json 文件:

      在您的配置文件中加入以下内容:

      {
        "mcpServers": {
          "openai-server": {
            "command": "python",
            "args": ["-m", "src.mcp_server_openai.server"],
            "env": {
              "PYTHONPATH": "C:/path/to/your/mcp-server-openai",
              "OPENAI_API_KEY": "your-key-here"
            }
          }
        }
      }
      
      请注意将
      C:/path/to/your/mcp-server-openai
      替换为您具体的路径,并将 your-key-here 替换为您的 OpenAI API Key。

    开发与贡献

    本项目欢迎社区开发者的贡献,您可以通过以下步骤进行开发:

    • 克隆项目到本地
    • 安装开发环境所需的依赖
    • 提交 PR 或 Issue,帮助改进代码质量

    测试

    为了确保服务的稳定性和准确性,可以通过如下命令进行测试:

    pytest -v test_openai.py -s
    

    测试示例输出:

    Testing OpenAI API call...
    OpenAI Response: Hello! I'm doing well, thank you for asking...
    PASSED
    

    该输出展示了通过 OpenAI API 请求后的响应,并表明测试已成功通过。

    许可

    本项目采用 MIT 开源许可证。这意味着您可以自由使用、修改和发布此项目代码,只需保留原始许可条款即可。

    结语

    OpenAI MCP Server 是一个强大而高效的工具,特别适用于希望在 Claude 环境中充分利用 OpenAI 模型的开发者和研究人员。它提供了一个简化的管道,使得复杂的 AI 模型调用变得更加直接和易于管理。无论是进行自然语言处理任务,还是开展语义理解的研究工作,此工具都能为您提供极大的便利和支持。
    关于 pierrebrunelle_mcp-server-openai
    通过MCP协议直接从Claude查询OpenAI模型的服务器实现。

    部署安装命令:

    { "mcpServers": { "MCP-Mirror-pierrebrunelle_mcp-server-openai": { "env": { "PYTHONPATH": "C:/path/to/your/mcp-server-openai", "OPENAI_API_KEY": "your-key-here" }, "args": [ "-m", "src.mcp_server_openai.server" ], "command": "python" } } }

    服务统计

    566查看次数
    121使用人数
    85质量评分
    无状态服务
    安装难度: 复杂
    部署环境: 云端/本地
    服务特性
    OpenAI
    MCP协议
    服务器

    相关MCP

    查看更多

    openai-tool2mcp

    openai-tool2mcp是一个轻量级桥梁,将OpenAI内置工具封装为MCP服务器,可与Claude等MCP兼容的模型一起使用。

    查看详情

    mzxrai_mcp-openai

    此MCP服务器整合了OpenAI的多个模型,提供简单的消息传递界面,支持从Claude应用程序中调用这些模型。

    查看详情

    openai-websearch-mcp

    该MCP服务器实现提供OpenAI网络搜索服务,使AI助手能在对话中获取最新信息。

    查看详情