OpenCode支持哪些模型?75+提供商接入指南入门必看
1. OpenCode是什么:终端里的AI编程助手
你有没有过这样的体验:写代码时卡在某个函数调用上,翻文档、查Stack Overflow、反复试错,半小时过去只改了三行?或者想快速重构一段老旧逻辑,却担心改出bug,不敢下手?
OpenCode 就是为解决这类日常编码痛点而生的——它不是又一个网页版AI助手,而是一个真正“长在终端里”的编程搭档。
2024年开源的 OpenCode,用 Go 语言编写,核心理念就四个词:终端优先、多模型、隐私安全、开箱即用。它不依赖浏览器,不强制登录,不上传你的代码,甚至不需要联网就能运行。你敲下opencode命令,一个轻量、响应快、带 TUI(文本用户界面)的 AI 编程环境就启动了:Tab 切换「构建模式」和「规划模式」,光标一移,变量类型自动提示;选中一段代码,右键就能触发「解释」「重构」「生成测试」;整个项目结构实时索引,跳转补全像本地 IDE 一样丝滑。
更关键的是,它把大模型抽象成可插拔的 Agent。你可以今天用本地跑的 Qwen3-4B,明天切到远程的 Claude,后天换成自己微调的小模型——全部只需改一行配置,无需重装、不用改代码。它不绑定任何厂商,也不推销订阅,GitHub 上 5 万颗星、MIT 协议、65 万月活用户,印证了一件事:开发者真正需要的,不是一个“黑盒AI”,而是一个可控、可信、可玩、可延展的编码伙伴。
2. 模型支持全景图:不止75+,而是“任意模型皆可接入”
OpenCode 的模型支持能力,是它区别于其他 AI 编程工具最硬核的一点。它不预设模型,也不限制来源——官方不卖模型,只提供接入标准;不锁死 API,只定义适配接口。
目前,OpenCode 已验证兼容75+ 主流模型提供商,覆盖三大类场景:
- 云服务类:OpenAI、Anthropic(Claude)、Google(Gemini)、Cohere、Mistral、DeepSeek、Qwen(通义千问)、Moonshot(Kimi)、01.ai(Yi)、智谱(GLM)、百川(Baichuan)、MiniMax(ABAB)、阿里云(Qwen)、腾讯混元(HunYuan)、百度文心(ERNIE Bot)等;
- 本地部署类:Ollama(支持 Llama、Phi、Gemma、Qwen、DeepSeek 等全部 Ollama 模型库)、vLLM(高性能推理服务)、Text Generation Inference(TGI)、LM Studio、Jan、llama.cpp(GGUF 格式)、KTransformers;
- 协议兼容类:所有遵循 OpenAI 兼容 API 规范的服务(如
http://localhost:8000/v1),包括你自己用 vLLM 或 Ollama 启动的本地服务,甚至私有化部署的模型网关。
这个数字不是静态上限,而是一个持续增长的生态指标。因为 OpenCode 采用BYOK(Bring Your Own Key)+ BYOM(Bring Your Own Model)架构:只要你能提供符合标准的 API 地址、密钥(或无密钥)、模型名称,它就能识别、加载、调用。
2.1 官方 Zen 频道:开箱即用的优化模型包
虽然 OpenCode 支持任意模型,但“能用”和“好用”之间仍有差距。为此,社区维护了官方Zen 频道——这不是一个模型仓库,而是一套经过实测调优的「模型配置包」。
每个 Zen 配置都包含:
- 经过 HumanEval、MBPP、CodeLlama-Eval 等基准测试的性能数据;
- 针对代码任务优化的 system prompt 模板;
- 推荐的 temperature、max_tokens、top_p 等参数组合;
- 对应模型在不同硬件(CPU/GPU/Apple Silicon)下的内存与延迟表现。
比如qwen3-4b-instruct-2507这个模型,在 Zen 频道中的配置已默认启用:
- 流式响应(避免长时间等待);
- 自动截断超长上下文(防止 OOM);
- 代码块语法高亮前缀识别(让输出更易读);
- 错误修复模式专用 prompt(当你选“调试”时自动激活)。
你不需要手动调参,下载配置即得最佳实践。
2.2 为什么是75+?背后是统一的 AI SDK 抽象层
OpenCode 能轻松接入如此多提供商,靠的不是硬编码每个 API,而是一套精巧的AI SDK 抽象层。它基于 @ai-sdk 生态构建,将所有模型交互归一为三个核心动作:
- 初始化 Provider:加载对应 npm 包(如
@ai-sdk/openai-compatible、@ai-sdk/anthropic、@ai-sdk/google); - 声明 Model 实例:指定模型名、基础 URL、认证方式;
- 调用 Chat Completion:统一输入 messages 数组,统一输出 stream 或 completion。
这意味着:
新增一个模型提供商,只需发布一个符合规范的@ai-sdk/{provider}npm 包;
用户无需更新 OpenCode 主程序,只要npm install新包并配置即可;
所有功能(补全、解释、重构)自动获得新模型支持,零额外开发。
这正是“75+”可持续扩展的底层逻辑——它不是 OpenCode 自己维护的列表,而是整个 AI SDK 生态的自然延伸。
3. 快速上手:用 vLLM + OpenCode 打造专属 AI Coding 应用
光说支持多没用,关键得让你马上跑起来。下面我们就用最典型的本地高性能方案:vLLM + OpenCode + Qwen3-4B-Instruct-2507,带你从零部署一个响应快、效果稳、完全离线的 AI 编程助手。
3.1 准备工作:启动 vLLM 服务
vLLM 是当前本地部署大模型推理的首选,吞吐高、显存省、API 完全兼容 OpenAI。我们以 Qwen3-4B-Instruct-2507 为例(模型已开源,可从 Hugging Face 直接下载):
# 1. 安装 vLLM(需 CUDA 环境) pip install vllm # 2. 启动服务(假设模型已下载到 ./qwen3-4b-instruct-2507) vllm serve \ --model Qwen/Qwen3-4B-Instruct-2507 \ --host 0.0.0.0 \ --port 8000 \ --tensor-parallel-size 1 \ --enable-prefix-caching \ --max-model-len 8192启动成功后,访问http://localhost:8000/v1/models,你会看到:
{ "object": "list", "data": [ { "id": "Qwen3-4B-Instruct-2507", "object": "model", "created": 1735678901, "owned_by": "vllm" } ] }服务就绪。注意:vLLM 默认监听http://localhost:8000/v1,这正是 OpenCode 配置中要用的地址。
3.2 配置 OpenCode:三步接入本地模型
OpenCode 的配置极其简洁。在你的项目根目录(或任意你想生效的目录)新建opencode.json:
{ "$schema": "https://opencode.ai/config.json", "provider": { "local-qwen3": { "npm": "@ai-sdk/openai-compatible", "name": "qwen3-4b", "options": { "baseURL": "http://localhost:8000/v1", "apiKey": "EMPTY" }, "models": { "Qwen3-4B-Instruct-2507": { "name": "Qwen3-4B-Instruct-2507", "temperature": 0.3, "maxTokens": 2048 } } } } }说明:
"npm": "@ai-sdk/openai-compatible":告诉 OpenCode 使用 OpenAI 兼容协议;"baseURL":指向你刚启动的 vLLM 服务;"apiKey": "EMPTY":vLLM 默认无需密钥,填EMPTY即可(部分本地服务用sk-xxx,按实际填);"models"下定义具体模型实例,支持多模型共存(比如再加一个llama3-8b)。
保存后,在同一目录下运行:
opencode你会看到终端启动,右上角显示Provider: local-qwen3 | Model: Qwen3-4B-Instruct-2507,表示已成功切换至本地模型。
3.3 实战体验:一次真实的代码辅助流程
我们来模拟一个真实场景:你正在写一个 Python 脚本,需要从 CSV 文件读取数据、清洗空值、按某列分组求和,并导出为 Excel。
- 在 OpenCode 中按
Ctrl+N新建会话,选择「规划模式」(Plan); - 输入提示:“帮我写一个 Python 脚本:读取 data.csv,删除所有含空值的行,按 'category' 列分组,对 'sales' 列求和,结果保存为 summary.xlsx”;
- OpenCode 调用 Qwen3-4B,几秒内返回完整脚本(含 pandas、openpyxl 导入、异常处理);
- 切换到「构建模式」(Build),将光标放在脚本任意位置,按
Alt+Enter,选择「添加单元测试」; - 它自动生成 pytest 用例,覆盖正常流程与空文件边界情况;
- 最后,选中整个脚本,右键 → 「执行」,直接在内置终端运行,输出 Excel 文件。
整个过程,代码从未离开你的机器,模型在本地 GPU 推理,响应延迟低于 800ms(RTX 4090 测试),且全程可审计、可调试、可中断。
4. 进阶技巧:让模型更好用的 5 个实用建议
接入模型只是第一步,如何让它真正成为你编码流程中“顺手的那把刀”,还需要一点小技巧。以下是社区高频验证的 5 条实战建议:
4.1 优先使用 Zen 频道配置,而非手动拼接
很多新手喜欢自己写opencode.json,但容易忽略 prompt 优化、token 截断、流式控制等细节。Zen 频道的配置已针对代码任务做过深度调优。推荐做法:
# 1. 安装 Zen CLI 工具 npm install -g @opencode/zen # 2. 查看可用模型(含性能评分) zen list # 3. 一键安装 Qwen3-4B 配置(自动写入 opencode.json) zen install qwen3-4b-instruct-2507比手写配置更可靠,也更容易升级。
4.2 多模型协同:用轻量模型做“前端过滤”,重模型做“后端精修”
不是所有任务都需要 4B 大模型。例如:
- 代码补全、错误提示 → 用 Phi-3-mini(2B)足够,速度快、成本低;
- 复杂重构、文档生成 → 切换到 Qwen3-4B 或 DeepSeek-Coder-33B。
OpenCode 支持在opencode.json中定义多个 provider,并通过.opencodeignore或命令行参数动态指定:
opencode --provider local-phi3 # 临时切到轻量模型4.3 利用插件增强模型能力,而非强求模型“全能”
OpenCode 的 40+ 插件,本质是给模型“外挂技能”。比如:
google-ai-search插件:当模型不确定某个库的用法时,自动调用 Google AI Search 获取最新文档片段;token-analyzer插件:实时显示当前会话 token 消耗,帮你判断是否该精简上下文;voice-notifier插件:长任务完成时语音播报,解放双眼。
这些插件不增加模型负担,却极大提升实用性——让模型专注思考,让插件负责查资料、计费、通知。
4.4 为敏感项目启用 Docker 隔离模式
如果你处理金融、医疗等强合规代码,可彻底隔离模型执行环境:
# 启动 OpenCode 容器,挂载当前目录,禁用网络 docker run -it \ --rm \ --network none \ -v $(pwd):/workspace \ -w /workspace \ -p 8080:8080 \ opencode-ai/opencode:latest \ --no-network \ --disable-telemetry此时模型只能访问挂载目录,无法外连、无法上报,真正实现“零信任”编码。
4.5 自定义 system prompt,打造专属编程风格
OpenCode 允许为每个模型实例注入自定义 system message。例如,让你的 Qwen3-4B 始终以“资深 Python 工程师”身份回答:
"models": { "Qwen3-4B-Instruct-2507": { "name": "Qwen3-4B-Instruct-2507", "system": "你是一位有 10 年经验的 Python 工程师,熟悉 PEP8、Black 格式化、pytest 最佳实践。回答必须简洁、可直接复制运行,不解释原理,除非我明确要求。" } }这种细粒度控制,远超普通聊天界面的“角色设定”。
5. 总结:选对工具,而不是追最大模型
回到最初的问题:OpenCode 支持哪些模型?
答案不是一张静态列表,而是一种开放架构带来的可能性——它支持的不是“75 个模型”,而是“所有你能拿到 API 的模型”;它提供的不是“一个 AI”,而是“一套让你掌控 AI 的方法论”。
- 如果你追求极致隐私:用 Ollama + llama.cpp,在 M2 Mac 上离线跑 Qwen3-4B,全程无网;
- 如果你追求企业级稳定:用 vLLM + Kubernetes 集群托管多个模型,OpenCode 统一调度;
- 如果你追求快速尝鲜:
docker run opencode-ai/opencode,5 秒启动,自带 Zen 频道推荐模型; - 如果你追求深度定制:写一个
@ai-sdk/my-company-llm包,对接内部模型网关,无缝集成。
真正的生产力提升,从来不是来自“更大的参数量”,而是来自“更贴合你工作流的控制权”。OpenCode 把选择权交还给你:模型由你定,数据由你管,代码由你写,AI 只负责把你的意图,更快、更准、更稳地变成现实。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。