您的当前位置:首页>全部文章>文章详情

AIClient-2-API 🚀

发表于:2025-08-01 22:31:54浏览:6次TAG: #AI #LLM #智能体 #MCP #API


# AIClient-2-API 🚀

一个能将多种大模型 API(Gemini, OpenAI, Claude…)统一封装为本地 OpenAI 兼容接口的强大代理。



License: GPL v3
Node.js

中文 | English

GeminiCli2API 是一个多功能、轻量化的 API 代理,旨在提供极致的灵活性和易用性。它通过一个 Node.js HTTP 服务器,将 Google Gemini CLI 授权登录、OpenAI、Claude、Kiro 等多种后端 API 统一转换为标准的 OpenAI 格式接口。项目采用现代化的模块化架构,支持策略模式和适配器模式,具备完整的测试覆盖和健康检查机制,开箱即用,npm install 后即可直接运行。您只需在配置文件中轻松切换模型服务商,就能让任何兼容 OpenAI 的客户端或应用,通过同一个 API 地址,无缝地使用不同的大模型能力,彻底摆脱为不同服务维护多套配置和处理接口不兼容问题的烦恼。


💡 核心优势

  • 多模型统一接入:一个接口,通吃 Gemini、OpenAI、Claude、Kimi K2、GLM-4.5 等多种最新模型。通过简单的启动参数或请求头,即可在不同模型服务商之间自由切换。
  • 突破官方限制:通过支持 Gemini CLI 的 OAuth 授权方式,有效绕过官方免费 API 的速率和配额限制,让您享受更高的请求额度和使用频率。
  • 突破客户端限制:Kiro API 模式下支持免费使用Claude Sonnet 4 模型。
  • 无缝兼容 OpenAI:提供与 OpenAI API 完全兼容的接口,让您现有的工具链和客户端(如 LobeChat, NextChat 等)可以零成本接入所有支持的模型。
  • 增强的可控性:通过强大的日志功能,可以捕获并记录所有请求的提示词(Prompts),便于审计、调试和构建私有数据集。
  • 极易扩展:得益于全新的模块化和策略模式设计,添加一个新的模型服务商变得前所未有的简单。
  • 完整测试覆盖:提供全面的集成测试和单元测试,确保各个API端点和功能的稳定性和可靠性。

📝 项目架构

告别了过去简单的结构,我们引入了更专业、更具扩展性的设计模式,让项目脱胎换骨:

  • src/api-server.js: 🚀 项目启动入口

    • 作为项目的总指挥,它负责启动和管理整个 HTTP 服务,解析命令行参数,并加载所有配置。
  • src/adapter.js: 🔌 服务适配器

    • 采用经典的适配器模式,为每种 AI 服务(Gemini, OpenAI, Claude, Kiro)创建一个统一的接口。无论后端服务如何变化,对主服务来说,调用方式都是一致的。
  • src/provider-strategies.js: 🎯 提供商策略工厂

    • 实现了策略工厂模式,为每种 API 协议(如 OpenAI、Gemini、Claude)提供统一的策略接口。这些策略精确地处理协议下的请求解析、响应格式化、模型名称提取等所有细节,确保了协议之间的完美转换。
  • src/provider-strategy.js: 🎯 策略基类

    • 定义了所有提供商策略的基础接口和通用方法,包括系统提示词管理、内容提取等核心功能。
  • src/convert.js: 🔄 格式转换中心

    • 这是实现“万物皆可 OpenAI”魔法的核心。它负责在不同的 API 协议格式之间进行精确、无损的数据转换。
  • src/common.js: 🛠️ 通用工具库

    • 存放着项目共享的常量、工具函数和通用处理器,让代码更加整洁和高效。
  • src/gemini/, src/openai/, src/claude/: 📦 提供商实现目录

    • 每个目录都包含了对应服务商的核心逻辑、API 调用和策略实现,结构清晰,便于您未来添加更多新的服务商。其中 src/claude/claude-kiro.js 提供了 Kiro API 的特殊实现。
  • tests/: 🧪 测试目录

    • 包含完整的集成测试套件,覆盖所有API端点、认证方式和错误处理场景,确保项目的稳定性和可靠性。支持针对不同提供商的独立测试和完整的HTTP集成测试。

🏗️ 架构设计模式

项目采用多种现代设计模式,确保代码的可维护性和扩展性:

  • 适配器模式 (Adapter Pattern): src/adapter.js 为不同的 AI 服务提供统一接口
  • 策略模式 (Strategy Pattern): src/provider-strategies.js 处理不同协议的请求/响应转换
  • 工厂模式 (Factory Pattern): 动态创建和管理服务适配器实例
  • 单例模式 (Singleton Pattern): 服务适配器实例的缓存和复用

🔄 数据流处理

  1. 请求接收: HTTP 服务器接收客户端请求
  2. 认证验证: 多种认证方式的统一验证
  3. 协议识别: 根据端点和请求头识别客户端协议
  4. 格式转换: 将请求转换为目标提供商格式
  5. 服务调用: 通过适配器调用具体的 AI 服务
  6. 响应转换: 将服务响应转换回客户端期望格式
  7. 流式处理: 支持实时流式响应传输

🎨 模型协议与提供商关系图

  • OpenAI 协议 (P_OPENAI): 支持所有 MODEL_PROVIDER,包括 openai-custom、gemini-cli-oauth、claude-custom 和
    claude-kiro-oauth。
  • Claude 协议 (P_CLAUDE): 支持 claude-custom、claude-kiro-oauth 和 gemini-cli-oauth。
  • Gemini 协议 (P_GEMINI): 支持 gemini-cli-oauth。
  graph TD
      subgraph Core_Protocols
          P_OPENAI(OpenAI Protocol)
          P_GEMINI(Gemini Protocol)
          P_CLAUDE(Claude Protocol)
      end

      subgraph Supported_Model_Providers
          MP_OPENAI[openai-custom]
          MP_GEMINI[gemini-cli-oauth]
          MP_CLAUDE_C[claude-custom]
          MP_CLAUDE_K[claude-kiro-oauth]
      end

      subgraph Internal_Conversion_Logic
          direction LR
          P_OPENAI <-->|Request/Response Conversion| P_GEMINI
          P_OPENAI <-->|Request/Response Conversion| P_CLAUDE
          P_GEMINI <-->|Request/Response Conversion| P_CLAUDE
      end

      P_OPENAI ---|Supports| MP_OPENAI
      P_OPENAI ---|Supports| MP_GEMINI
      P_OPENAI ---|Supports| MP_CLAUDE_C
      P_OPENAI ---|Supports| MP_CLAUDE_K

      P_GEMINI ---|Supports| MP_GEMINI

      P_CLAUDE ---|Supports| MP_CLAUDE_C
      P_CLAUDE ---|Supports| MP_CLAUDE_K
      P_CLAUDE ---|Supports| MP_GEMINI

      style P_OPENAI fill:#f9f,stroke:#333,stroke-width:2px
      style P_GEMINI fill:#ccf,stroke:#333,stroke-width:2px
      style P_CLAUDE fill:#cfc,stroke:#333,stroke-width:2px

🔧 使用说明

  • MCP 支持: 虽然原版 Gemini CLI 的内置命令功能不可用,但本项目完美支持 MCP (Model Context Protocol),可配合支持 MCP 的客户端实现更强大的功能扩展。
  • 多模态能力: 支持图片、文档等多模态输入,为您提供更丰富的交互体验。
  • 最新模型支持: 支持最新的 Kimi K2GLM-4.5 模型,只需在 config.json 中配置相应的 OpenAI 或 Claude 兼容接口即可使用。
  • Kiro API: 使用 Kiro API 需要下载kiro客户端并完成授权登录生成 kiro-auth-token.json。推荐配合 Claude Code 使用以获得最佳体验

🛠️ 主要功能

通用功能

  • 🔐 智能认证与令牌续期: 针对需要 OAuth 的服务(如 gemini-cli-oauth),首次运行将引导您通过浏览器完成授权,并能自动刷新令牌。
  • 🛡️ 多种认证方式支持: 支持 Authorization: Bearer <key>x-goog-api-keyx-api-key 请求头以及 URL 查询参数等多种认证方式。
  • ⚙️ 高度可配置: 可通过 config.json 文件或命令行参数,灵活配置监听地址、端口、API 密钥、模型提供商以及日志模式。
  • 📜 全面可控的日志系统: 可将带时间戳的提示词日志输出到控制台或文件,并显示令牌剩余有效期。
  • 🏥 健康检查机制: 提供 /health 端点用于服务状态监控,返回服务健康状态和当前配置信息。

OpenAI 兼容接口 (/v1/...)

  • 🌍 完美兼容: 实现了 /v1/models/v1/chat/completions 核心端点。
  • 🔄 自动格式转换: 在内部自动将不同模型的请求/响应与 OpenAI 格式进行无缝转换,支持多模态内容。
  • 💨 流式传输支持: 完全支持 OpenAI 的流式响应 ("stream": true),提供打字机般的实时体验。

Gemini 原生接口 (/v1beta/...)

  • 🎯 原生支持: 完整支持 Gemini API 的原生格式和功能。
  • 🔧 高级功能: 支持系统指令、工具调用、多模态输入等高级特性。
  • 📊 详细统计: 提供完整的 token 使用统计和模型信息。

Claude 原生接口 (/v1/messages)

  • 🤖 Claude 专用: 完整支持 Claude Messages API 格式。
  • 🛠️ 工具集成: 支持 Claude 的工具使用和函数调用功能。
  • 🎨 多模态: 支持图片、音频等多种输入格式。

📦 安装指南

  1. 环境准备:

    • 请确保您已安装 Node.js (建议版本 >= 20.0.0)。
    • 本项目已包含 package.json 并设置 {"type": "module"},您无需手动创建。
  2. 安装依赖:
    克隆本仓库后,在项目根目录下执行:

    npm install
    

    这将自动安装所有必要依赖。


🚀 快速开始

1. 配置文件 (config.json)

我们推荐使用 config.json 文件来管理您的配置,这比冗长的命令行参数更清晰。

首先,手动创建 config.json 文件,并填入您的配置信息。

{
    "REQUIRED_API_KEY": "123456",
    "SERVER_PORT": 3000,
    "HOST": "localhost",
    "MODEL_PROVIDER": "gemini-cli-oauth",
    "OPENAI_API_KEY": "sk-your-openai-key",
    "OPENAI_BASE_URL": "https://api.openai.com/v1",
    "CLAUDE_API_KEY": "sk-ant-your-claude-key",
    "CLAUDE_BASE_URL": "https://api.anthropic.com/v1",
    "PROJECT_ID": "your-gcp-project-id",
    "PROMPT_LOG_MODE": "console"
}

2. 配置参数详解

以下是 config.json 文件中所有支持的参数及其详细说明:

参数名 类型 描述 默认值/可选值
REQUIRED_API_KEY string 用于保护您的 API 服务的密钥。客户端在请求时必须提供此密钥。 任意字符串, 默认为 "123456"
SERVER_PORT number 服务器监听的端口号。 任意有效端口号, 默认为 3000
HOST string 服务器监听的主机地址。localhost 只允许本机访问,0.0.0.0 允许局域网或公网访问。 默认为 "localhost"
MODEL_PROVIDER string 指定后端使用的模型服务商。这是核心配置,决定了 API 请求将转发给哪个平台。 可选值: "gemini-cli-oauth", "openai-custom", "claude-custom", "claude-kiro-oauth"
OPENAI_API_KEY string MODEL_PROVIDERopenai-custom 时,需要提供您的 OpenAI API 密钥。 null
OPENAI_BASE_URL string MODEL_PROVIDERopenai-custom 时,可以指定 OpenAI 兼容的 API 地址。 默认为 "https://api.openai.com/v1"
CLAUDE_API_KEY string MODEL_PROVIDERclaude-custom 时,需要提供您的 Claude API 密钥。 null
CLAUDE_BASE_URL string MODEL_PROVIDERclaude-custom 时,可以指定 Claude 兼容的 API 地址。 默认为 "https://api.anthropic.com/v1"
KIRO_OAUTH_CREDS_BASE64 string (Kiro API 模式) 您的 Kiro OAuth 凭据的 Base64 编码字符串。 null
KIRO_OAUTH_CREDS_FILE_PATH string (Kiro API 模式) 您的 Kiro OAuth 凭据 JSON 文件的路径。 null
GEMINI_OAUTH_CREDS_BASE64 string (Gemini-CLI 模式) 您的 Google OAuth 凭据的 Base64 编码字符串。 null
GEMINI_OAUTH_CREDS_FILE_PATH string (Gemini-CLI 模式) 您的 Google OAuth 凭据 JSON 文件的路径。 null
PROJECT_ID string (Gemini-CLI 模式) 您的 Google Cloud 项目 ID。 null
SYSTEM_PROMPT_FILE_PATH string 用于加载系统提示词的外部文件路径。 默认为 "input_system_prompt.txt"
SYSTEM_PROMPT_MODE string 系统提示词的应用模式。overwrite 会覆盖客户端的提示,append 会追加到客户端提示之后。 可选值: "overwrite", "append"
PROMPT_LOG_MODE string 请求和响应的日志记录模式。none 不记录,console 打印到控制台,file 保存到日志文件。 可选值: "none", "console", "file"
PROMPT_LOG_BASE_NAME string PROMPT_LOG_MODEfile 时,生成的日志文件的基础名称。 默认为 "prompt_log"
REQUEST_MAX_RETRIES number 当 API 请求失败时,自动重试的最大次数。 默认为 3
REQUEST_BASE_DELAY number 自动重试之间的基础延迟时间(毫秒)。每次重试后延迟会增加。 默认为 1000

3. 启动服务

  • 使用 config.json 启动 (推荐)
    node src/api-server.js
    
  • 通过命令行参数启动 (会覆盖 config.json 中的同名配置)
    • 启动 OpenAI 代理:
      node src/api-server.js --model-provider openai-custom --openai-api-key sk-xxx
      
    • 启动 Claude 代理:
      node src/api-server.js --model-provider claude-custom --claude-api-key sk-ant-xxx
      
    • 启动 Kiro API 代理:
      node src/api-server.js --model-provider claude-kiro-oauth
      
    • 监听所有网络接口并指定端口和Key (用于 Docker 或局域网访问)
      node src/api-server.js --host 0.0.0.0 --port 8000 --api-key your_secret_key
      

更多启动参数,请参考 src/api-server.js 文件顶部的注释。


🐳 Docker 部署

项目支持通过 Docker 进行部署,详细指南请参阅 Docker部署指南


4. 调用 API

提示: 如果您在无法直接访问 Google/OpenAI/Claude/Kiro 服务的环境中使用,请先为您的终端设置全局 HTTP/HTTPS 代理。

所有请求都使用标准的 OpenAI 格式。

  • 健康检查
    curl http://localhost:3000/health
    
  • 列出模型
    curl http://localhost:3000/v1/models \
      -H "Authorization: Bearer 123456"
    
  • 生成内容 (非流式)

    curl http://localhost:3000/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer 123456" \
      -d '{
        "model": "gemini-2.5-flash",
        "messages": [
          {"role": "system", "content": "你是一只名叫 Neko 的猫。"},
          {"role": "user", "content": "你好,你叫什么名字?"}
        ]
      }'
    
  • 多模态内容生成

    curl http://localhost:3000/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer 123456" \
      -d '{
        "model": "gemini-2.5-flash",
        "messages": [
          {
            "role": "user",
            "content": [
              {"type": "text", "text": "描述这张图片"},
              {"type": "image_url", "image_url": {"url": "data:image/jpeg;base64,..."}}
            ]
          }
        ]
      }'
    
  • 使用不同提供商 (通过路径)

    # 使用 Gemini
    curl http://localhost:3000/gemini-cli-oauth/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer 123456" \
      -d '{"model": "gemini-2.5-flash", "messages": [{"role": "user", "content": "Hello"}]}'
    
    # 使用 Claude
    curl http://localhost:3000/claude-custom/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer 123456" \
      -d '{"model": "claude-3-opus-20240229", "messages": [{"role": "user", "content": "Hello"}]}'
    
  • 流式生成内容
    curl http://localhost:3000/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer 123456" \
      -d '{
        "model": "claude-3-opus-20240229",
        "messages": [
          {"role": "user", "content": "写一首关于宇宙的五行短诗"}
        ],
        "stream": true
      }'
    

🌟 特殊用法与进阶技巧

  • 🔌 对接任意 OpenAI 客户端: 这是本项目的基本功能。将任何支持 OpenAI 的应用(如 LobeChat, NextChat, VS Code 插件等)的 API 地址指向本服务 (http://localhost:3000),即可无缝使用所有已配置的模型。

  • 🔍 中心化请求监控与审计: 在 config.json 中设置 "PROMPT_LOG_MODE": "file" 来捕获所有请求和响应,并保存到本地日志文件。这对于分析、调试和优化提示词,甚至构建私有数据集都至关重要。

  • 💡 动态系统提示词:

    • 通过在 config.json 中设置 SYSTEM_PROMPT_FILE_PATHSYSTEM_PROMPT_MODE,您可以更灵活地控制系统提示词的行为。
    • 支持的模式:
      • override: 完全忽略客户端的系统提示词,强制使用文件中的内容。
      • append: 在客户端系统提示词的末尾追加文件中的内容,实现规则的补充。
    • 这使得您可以为不同的客户端设置统一的基础指令,同时允许单个应用进行个性化扩展。
  • 🛠️ 作为二次开发基石:

    • 添加新模型: 只需在 src 目录下创建一个新的提供商目录,实现 ApiServiceAdapter 接口和相应的策略,然后在 adapter.jscommon.js 中注册即可。
    • 响应缓存: 对高频重复问题添加缓存逻辑,降低 API 调用,提升响应速度。
    • 自定义内容过滤: 在请求发送或返回前增加关键词过滤或内容审查逻辑,满足合规要求。

📄 开源许可

本项目遵循 GNU General Public License v3 (GPLv3) 开源许可。详情请查看根目录下的 LICENSE 文件。

🙏 致谢

本项目的开发受到了官方 Google Gemini CLI 的极大启发,并参考了Cline 3.18.0 版本 gemini-cli.ts 的部分代码实现。在此对 Google 官方团队和 Cline 开发团队的卓越工作表示衷心的感谢!

🌟 Star History

Star History Chart