Hugging Face 推出了一个全新集成,让开发者可以在 Visual Studio Code 中直接把 Inference Providers 接入到 GitHub Copilot Chat。这意味着,像 Kimi K2、DeepSeek V3.1、GLM 4.5 等开源大语言模型,现在都能在 VS Code 编辑器内直接使用和测试,无需切换平台或来回操作多个工具。
整个流程非常简单:开发者只需安装 Hugging Face Copilot Chat 插件,打开 VS Code 的聊天界面,选择 Hugging Face 作为提供方,输入 Hugging Face token,然后添加想要使用的模型即可。连接成功后,就能在熟悉的模型选择器中自由切换不同的提供方和模型。
不过,社区讨论中很快出现了一个实用提醒:这一功能需要较新的编辑器版本。AI 研究员 Aditya Wresniyandaka 就在 LinkedIn 上指出:
文档没有提到,你需要 VS Code 2025 年 8 月发布的 1.104.0 版本。
GitHub Copilot Chat 过去主要依赖一组封闭的专有模型。如今通过接入 Hugging Face 的 Inference Providers 网络,开发者就能使用到更多样的 AI 工具,包括一些实验性或高度专业化的开源模型。
Muhammad Arshad Iqbal 在 LinkedIn 上点赞道:
太酷了!现在我们可以在 VS Code 里直接用各种强大的开源编程 AI。再也不用为了测试 Qwen3-Coder 这样的模型而来回切换标签页了。
这种集成让开发者能用 Copilot Chat 调用更贴合特定编程任务、行业或研究领域的模型,而不仅限于默认模型。背后的支撑正是 Hugging Face Inference Providers——一个能通过单一 API 访问数百个机器学习模型的服务。
这一更新的核心价值在于“统一”:开发者无需再同时维护多个 API,也不用担心不同服务稳定性差异,只需通过一致的接口就能访问多家提供方的模型。Hugging Face 强调了几个主要优势:
- 快速接入前沿模型,突破单一厂商的限制;
- 避免供应商锁定,几乎无需改动代码就能切换提供方;
- 具备生产级性能,高可用、低延迟;
- 开发者友好,兼容 OpenAI Chat Completions API,并提供 Python 和 JavaScript SDK。
为了方便使用,Hugging Face 还提供了免费额度供开发者试用;而 Pro、Team 和 Enterprise 方案则提供更大使用量和按需付费选项。官方强调,开发者支付的费用就是提供方的实际收费,没有额外加价。