SkillAgentSearch skills...

GCMP

通过集成国内主流原生大模型提供商,为开发者提供更加丰富、更适合本土需求的 AI 编程助手选择。 目前已内置支持 智谱AI、MiniMax、MoonshotAI、DeepSeek、阿里云百炼、快手万擎、火山方舟、腾讯云、Xiaomi MiMo 等原生大模型提供商。 此外,扩展插件已适配支持 OpenAI 与 Anthropic 的 API 接口兼容模型,支持自定义接入任何提供兼容接口的第三方云服务模型。

Install / Use

/learn @VicBilibily/GCMP
About this skill

Quality Score

0/100

Supported Platforms

Claude Code
Claude Desktop

README

GCMP - 提供多个国内原生大模型提供商支持的扩展

CI Version Installs Downloads License

通过集成国内主流原生大模型提供商,为开发者提供更加丰富、更适合本土需求的 AI 编程助手选择。 目前已内置支持 智谱AI、MiniMax、MoonshotAI、DeepSeek、阿里云百炼、快手万擎、火山方舟、腾讯云、Xiaomi MiMo 等原生大模型提供商。 此外,扩展插件已适配支持 OpenAI 与 Anthropic 的 API 接口兼容模型,支持自定义接入任何提供兼容接口的第三方云服务模型

📢 公告

  • 0.20.8 临时兼容项:针对 VS Code 模型选择器显示模型不全的问题,新增 gcmp.autoPrefixModelId 配置项作为临时解决方案。
    • 问题原因:VS Code 1.111.0 引入模型折叠模式后,当多个提供商存在相同模型 ID 时,选中模型后的可用模型过滤逻辑异常(选中后模型移至顶部,下方列表过滤掉该 modelId,导致同 modelId 的其他提供商的此个模型无法选中)。
    • 解决方案:启用 gcmp.autoPrefixModelId 后,模型 ID 将自动添加提供商前缀(如 zhipu:::glm-5),避免 ID 冲突。(若仅使用单一提供商或未遇到此类问题,可无视此临时兼容项)
    • 注意事项:切换此开关后模型 ID 会变更,需重新在「语言模型」管理页面勾选需要使用的模型。

🚀 快速开始

1. 安装扩展

在VS Code扩展市场搜索 GCMP 并安装,或使用扩展标识符:vicanent.gcmp

2. 开始使用

  1. 打开 VS CodeGitHub Copilot Chat 面板
  2. 在模型选择器的底部选择 管理模型,从弹出的模型提供商列表中选择所需的提供商
  3. 若第一次使用,选择提供商后会要求设置 ApiKey,根据提示完成API密钥配置后,即可返回模型选择器添加并启用模型
  4. 在模型选择器中选中目标模型后,即可开始与AI助手进行对话

🤖 内置的AI大模型提供商

本扩展仅预置存在自有模型的一线大模型提供商(如具备模型自研能力的主流云厂商),第三方模型接入请使用「OpenAI / Anthropic Compatible」兼容模式。

智谱AI

  • 编程套餐GLM-5V-TurboGLM-5.1GLM-5-TurboGLM-5GLM-4.7GLM-4.6GLM-4.6VGLM-4.5-Air
    • 用量查询:已支持状态栏显示周期剩余用量,可查看 GLM Coding Plan 用量信息。
  • 按量计费GLM-5V-TurboGLM-5-TurboGLM-5GLM-4.7GLM-4.7-FlashXGLM-4.6GLM-4.6VGLM-4.5-Air
  • 免费模型GLM-4.6V-FlashGLM-4.7-Flash
  • 国际站点:已支持国际站(z.ai)切换设置。
  • 搜索功能:集成 联网搜索MCPWeb Search API,支持 #zhipuWebSearch 进行联网搜索。
    • 默认启用 联网搜索MCP 模式,编程套餐支持:Lite(100次/月)、Pro(1000次/月)、Max(4000次/月)。
    • 可通过设置关闭 联网搜索MCP 模式以使用 Web Search API 按次计费。

MiniMax

  • Coding Plan 编程套餐MiniMax-M2.7(极速版)、MiniMax-M2.5(极速版)、MiniMax-M2.1MiniMax-M2
    • 搜索功能:集成 Coding Plan 联网搜索工具,支持通过 #minimaxWebSearch 进行联网搜索。
    • 用量查询:已支持状态栏显示周期剩余用量,可查看 Coding Plan 编程套餐用量信息。
    • 国际站点:已支持国际站 Coding Plan 编程套餐使用。
  • 按量计费MiniMax-M2.7(极速版)、MiniMax-M2.5(极速版)、MiniMax-M2.1(极速版)、MiniMax-M2

MoonshotAI

  • 会员权益:Kimi 会员计划 套餐的附带的 Kimi For Coding,当前使用 Roo Code 发送 Anthropic 请求。
    • 搜索功能:集成 Kimi Search 联网搜索工具,支持通过 #kimiWebSearch 进行联网搜索。
    • 用量查询:已支持状态栏显示周期剩余用量,可查看套餐的剩余用量及限频重置时间。
  • 预置模型:Kimi-K2.5
    • 余额查询:已支持状态栏显示当前账户额度,可查看账户余额状况。

DeepSeek

  • 预置模型:DeepSeek-V3.2(Reasoner)
    • 余额查询:已支持状态栏显示当前账户额度,可查看账户余额详情。

阿里云百炼

  • Coding Plan 套餐Qwen3.5-PlusQwen3-MaxQwen3-Coder-NextQwen3-Coder-PlusMiniMax-M2.5GLM-5GLM-4.7Kimi-K2.5
  • 通义千问系列Qwen3.6-PlusQwen3.5-PlusQwen3.5-FlashQwen3-MaxQwen3-VL-PlusQwen3-VL-FlashQwen-PlusQwen-Flash

快手万擎 - StreamLake

火山方舟

  • Coding Plan 套餐
    • 豆包模型:Doubao-Seed-2.0-CodeDoubao-Seed-CodeDoubao-Seed-2.0-liteDoubao-Seed-2.0-pro
    • 开源模型:MiniMax-M2.5Kimi-K2.5GLM-4.7Deepseek v3.2
  • 豆包系列Doubao-Seed-2.0(lite/mini/pro/Code)、Doubao-Seed-1.8Doubao-Seed-1.6Doubao-Seed-1.6-Lite
  • 协作奖励计划GLM-4.7DeepSeek-V3.2DeepSeek-V3.1-terminus

腾讯云

Xiaomi MiMo

实验性支持 CLI 认证提供商

⚠️ 风险警告:以下 CLI 认证方式通过模拟官方 CLI 工具的调用方式来实现对应的 API 访问,可能涉嫌滥用第三方服务条款,存在被官方检测封禁账号的风险。请仅在确保知情并自愿承担风险的前提下使用。

<details> <summary>展开查看 CLI 认证支持提供商说明</summary>

Qwen Code - Qwen Code CLI

阿里云通义千问官方编程助手,支持通过 Qwen Code CLI 进行 Qwen Auth 认证(需要本地安装 Qwen Code CLI)。

npm install -g @qwen-code/qwen-code@latest
  • 支持模型Qwen3.5-Plus

Codex CLI - OpenAI Codex

OpenAI 官方编程助手 Codex 的命令行工具,支持通过 codex CLI 进行身份验证(需要本地安装 codex CLI)。

npm install -g @openai/codex@latest
  • 支持模型GPT-5.4-miniGPT-5.4GPT-5.2GPT-5.2-CodexGPT-5.3-Codex
  • 用量查询:已支持状态栏显示 ChatGPT 订阅周期剩余用量,可查看订阅余量信息。

Gemini - Gemini CLI

Google 官方 Gemini API 命令行工具,支持通过 Gemini CLI 进行 Login with Google 认证(需要本地安装 Gemini CLI)。

npm install -g @google/gemini-cli@latest
  • 支持模型Gemini 2.5 ProGemini 2.5 Flash
  • 预览模型Gemini 3.1 Pro (Preview)Gemini 3.1 Pro (Custom Tools)Gemini 3 Pro (Preview)Gemini 3 Flash (Preview)
</details>

⚙️ 高级配置

GCMP 支持通过 VS Code 设置来自定义AI模型的行为参数,让您获得更个性化的AI助手体验。

📝 提示settings.json 所有参数修改会立即生效。

<details> <summary>展开查看高级配置说明</summary>

通用模型参数 及 额外支持功能 配置

{
    "gcmp.maxTokens": 16000, // 32-256000
    "gcmp.zhipu.search.enableMCP": true // 启用`联网搜索MCP`(Coding Plan专属)
}

模型 Family 配置

family 字段用于标识模型系列,VS Code 会根据 family 值决定模型的工具能力支持。如果未设置,将根据 sdkMode 自动推断:

| sdkMode | 默认 family | 说明 | | ----------------------- | ---------------------------------------------------- | ------------------------- | | anthropic | claude-sonnet-4.6 | Anthropic SDK 模型 | | openai / openai-sse | gpt-5.2(id/model 包含 gpt)或 claude-sonnet-4.6 | OpenAI SDK 模型 | | openai-responses | gpt-5.2 | OpenAI Responses API 模型 | | gemini-sse | gemini-3-pro | Gemini HTTP SSE 模型 |

family 值对工具能力的影响

| family 前缀 | 编辑工具 | 说明 | | ------------------------ | ------------------------ | ---------------------------------- | | claude-* / Anthropic | replace_string_in_file | 高效精确的单次替换,支持多文件替换 | | gpt-5.* | apply_patch | 批量差异应用,支持复杂重构 | | gemini-* | replace_string_in_file | 高效精确的单次替换 |

参考:VS Code Copilot Chat - chatModelCapabilities.ts

配置示例

{
    "gcmp.providerOverrides": {
        "dashscope": {
            "models": [
                {
                    "id": "deepseek-v3.2",
                    "name": "Deepseek-V3.2",
                    "family": "gpt-5.2", // 可选:指定 family
                    "maxInputTokens": 128000,
                    "maxOutputTokens": 16000,
                    "capabilities": {
                        "toolCalling": true,
                        "imageInput": false
                    }
                }
            ]
        }
    }
}

提供商配置覆盖

GCMP 支持通过 gcmp.providerOverrides 配置项来覆盖提供商的默认设置,包括 baseUrl、customHeader、模型配置等。

配置示例

{
    "gcmp.providerOverrides": {
        "dashscope": {
            "models": [
                {
                    "id": "deepseek-v3.2", // 增加额外模型:不在提示可选选项,但允许自定义新增
                    "name": "Deepseek-V3.2 (阿里云百炼)",
                    "tooltip": "DeepSeek-V3.2是引入DeepSeek Sparse Attention(一种稀疏注意力机制)的正式版模型,也是DeepSeek推出的

Related Skills

View on GitHub
GitHub Stars178
CategoryDevelopment
Updated11h ago
Forks22

Languages

TypeScript

Security Score

95/100

Audited on Apr 7, 2026

No findings