shareMCP
开发文档
开发文档
shareMCP

最大的MCP服务器和客户端集合,轻松搜索和发现

资源

  • 文档
  • 指南
  • API

社区

  • 博客
  • github

关于

  • 关于我们
  • 隐私政策
  • 服务条款

© 2025 shareMCP. 保留所有权利。

    mcp-server-openai

    pierrebrunelle/mcp-server-openai
    ppierrebrunelle
    更新于 8/21/2025
    首页mcp-server-openai

    mcp-server-openai 仓库详解

    简介

    欢迎来到 mcp-server-openai 仓库的详细介绍页面。在这个仓库中,您将了解到如何使用 MCP 协议直接从 Claude 中调用 OpenAI 模型。

    mcp-server-openai 是一个由 Pierre Brunelle 开发的工具,提供了一种便捷的接口来集成 OpenAI 强大的语言模型。它旨在让用户通过 Claude 应用程序高效地调用 OpenAI 的多样化功能。

    仓库主页:mcp-server-openai GitHub仓库

    项目背景与价值

    在人工智能的快速发展浪潮中,自然语言处理技术的进步尤为显著。OpenAI 提供了一套功能强大的语言模型,能够在多个领域实现突破性应用。然而,将这些模型集成到特定应用中常常需要复杂的开发过程。mcp-server-openai 正是在这样的背景下应运而生,其核心优势在于通过 MCP 协议与 Claude 的无缝对接,使得调用 OpenAI 模型变得简单而高效。

    这一工具的潜在应用场景非常广泛,涵盖从智能客服、信息检索到复杂的文本生成任务。开发者和企业可以利用它来简化开发流程,加速产品的上市时间。

    安装与配置

    要开始使用 mcp-server-openai,您需要做一些基础设置。以下是详细的安装步骤:

    1. 确保您已在系统中配置 Python 环境。

    2. 克隆仓库:

      git clone https://github.com/pierrebrunelle/mcp-server-openai
      cd mcp-server-openai
      
    3. 安装项目依赖:

      pip install -e .
      
    4. 配置 Claude:

      在 claude_desktop_config.json 中添加以下配置:
      {
        "mcpServers": {
          "openai-server": {
            "command": "python",
            "args": ["-m", "src.mcp_server_openai.server"],
            "env": {
              "PYTHONPATH": "C:/path/to/your/mcp-server-openai",
              "OPENAI_API_KEY": "your-key-here"
            }
          }
        }
      }
      
      请确保替换 "your-key-here" 为您自己的 OpenAI API 密钥。此外,调整 PYTHONPATH 以匹配您在本地的仓库路径。

    开发指南

    mcp-server-openai 为开发人员提供了灵活的 API 接口支持,可以根据自身需求进行定制化开发:

    • 代码编辑:修改 src 文件夹中的代码以更改服务行为。
    • 扩展功能:添加新的脚本或调整现有脚本以支持额外的功能。

    测试方法

    确保您的设置正确无误后,您可以运行项目自带的测试用例以验证功能:

    pytest -v test_openai.py -s
    

    这个测试脚本将直接从项目根目录运行,并帮助您验证 OpenAI API 的调用是否成功。

    输出示例:

    Testing OpenAI API call...
    OpenAI Response: Hello! I'm doing well, thank you for asking...
    PASSED
    

    开源许可

    mcp-server-openai 采用了 MIT 许可证。这意味着您可以自由使用、修改和分发此软件,同时也需要知晓该软件是按“现有状况”提供的,使用时需自担风险。

    希望本仓库的介绍能够帮助您更好地理解和使用 mcp-server-openai。同时,也欢迎开发者为项目的发展贡献力量。

    如有任何疑问或建议,您可以通过 GitHub 仓库页面中的 Issues 部分与作者进行交流与互动。

    关于 mcp-server-openai
    这个MCP服务器允许使用MCP协议从Claude直接查询OpenAI模型,简化了模型集成。

    部署安装命令:

    { "mcpServers": { "pierrebrunelle-mcp-server-openai": { "env": { "PYTHONPATH": "C:/path/to/your/mcp-server-openai", "OPENAI_API_KEY": "your-key-here" }, "args": [ "-m", "src.mcp_server_openai.server" ], "command": "python" } } }

    服务统计

    2014查看次数
    53使用人数
    87质量评分
    无状态服务
    安装难度: 复杂
    部署环境: 云端/本地
    服务特性
    MCP服务器
    OpenAI集成
    协议转换

    相关MCP

    查看更多

    mcp-openai

    MCP OpenAI Server允许从Claude桌面应用中无缝集成并使用OpenAI模型,支持多种模型选择。

    查看详情

    openai-tool2mcp

    openai-tool2mcp是一个轻量级桥梁,将OpenAI内置工具封装为MCP服务器,可与Claude等MCP兼容的模型一起使用。

    查看详情

    mzxrai_mcp-openai

    此MCP服务器整合了OpenAI的多个模型,提供简单的消息传递界面,支持从Claude应用程序中调用这些模型。

    查看详情