OpenCode 模型配置终极攻略:75+ 提供商随心换,免费到顶尖全搞定
🔥 同样的代码,有人烧钱请人写,有人零成本轻松搞定——关键全在模型配置。
不绑定任何一家 AI 厂商——OpenCode 让你像换手机壳一样切换大模型。从零成本的免费模型,到最强的 GPT 5.4 Pro,完全由你说了算。
OpenCode 模型架构的核心概念
为什么模型选择至关重要?
AI 编程工具的灵魂是大模型。模型直接决定:
- 代码质量:产出的代码能不能拿来即用
- 理解能力:能否读懂整个项目的上下文
- 响应速度:要等多久才能拿到答案
- 使用成本:每月需要花多少钱
现实问题:绝大多数 AI 编程工具只能使用自家模型。Cursor 仅限自家模型,Copilot 仅限 OpenAI,Claude Code 仅限 Claude。
OpenCode 打破了这道围墙——75+ 家模型提供商,选择权在你手中。
三层模型架构
OpenCode 的模型体系分成三层:云端模型、本地模型、OpenCode Zen 精选网关。
OpenCode 模型体系
云端模型
本地模型
OpenCode Zen精选网关
国际大厂OpenAI / Anthropic / Google
国内厂商智谱GLM / 通义Qwen / Kimi
聚合平台OpenRouter / Together AI
垂直平台Groq / Cerebras / xAI
Ollama
llama.cpp
LM Studio
免费模型Big Pickle / GPT 5 Nano
付费精选Claude / GPT / Gemini
按量付费统一账单
每一层都有清晰的使用场景:
| 层级 | 适合场景 | 成本 |
|---|---|---|
| 云端模型 | 日常开发,性能最强 | 按量付费 |
| 本地模型 | 隐私敏感,离线开发 | 免费(需硬件) |
| Zen 精选 | 新手入门,零配置起步 | 免费起,按量升级 |
模型提供商全景
国际大厂
| 提供商 | 代表模型 | 特点 | 接入方式 |
|---|---|---|---|
| OpenAI | GPT 5.4, GPT 5.4 Pro, GPT 5.4 Mini/Nano | 综合能力最强,生态最成熟 | /connect 或 API Key |
| Anthropic | Claude Opus 4.6, Sonnet 4.6, Haiku 4.5 | 编程能力顶尖,长上下文 | /connect 支持 Pro/Max 订阅 |
| Gemini 3.1 Pro, Gemini 3 Flash | 多模态能力突出,Google 生态 | Vertex AI 或 API Key | |
| Amazon Bedrock | 多模型聚合 | 企业级部署,安全合规 | AWS 凭证或环境变量 |
| Azure OpenAI | OpenAI 模型 | 企业用户友好,全球节点 | 资源名 + API Key |
| GitHub Copilot | Copilot 模型 | Copilot 订阅用户直接用 | 设备码认证 |
国内厂商
| 提供商 | 代表模型 | 特点 |
|---|---|---|
| 智谱 GLM (Z.AI) | GLM 5.1, GLM 5 | 国内顶尖,中文理解出色,有 Coding Plan |
| 通义 Qwen | Qwen 3.6 Plus | 阿里出品,代码能力强 |
| Kimi (Moonshot AI) | Kimi K2.5 | 长上下文,文档理解能力强 |
| MiniMax | MiniMax M2.5, M2.1 | 开放平台,有免费额度 |
重点:使用国内模型时,数据留在国内处理,延迟更低,价格也更友好。智谱 GLM 在 OpenCode 中的提供商 ID 为
zai。
聚合平台
| 平台 | 说明 | 适合场景 |
|---|---|---|
| OpenRouter | 一个 Key 访问 100+ 模型 | 想尝鲜各种模型的开发者 |
| Together AI | 开源模型推理平台 | 使用开源模型的首选 |
| Fireworks AI | 快速推理服务 | 追求速度,延迟敏感 |
| Hugging Face | 模型社区推理,17+ 提供商 | 研究和实验 |
| Helicone | AI 网关 + 可观测性 | 需要日志监控的团队 |
| Vercel AI Gateway | 统一端点访问多提供商 | Vercel 生态用户 |
| Cloudflare AI Gateway | 统一端点 + 缓存 | Cloudflare 用户 |
更多专业提供商
OpenCode 支持的远不止上述提供商。下面这些同样值得关注:
| 提供商 | 代表模型 | 特点 |
|---|---|---|
| Groq | Llama 系列等 | LPU 推理芯片,速度极快 |
| Cerebras | Qwen 3 Coder 480B 等 | CS-3 晶圆级芯片,批量推理 |
| xAI | Grok Beta | Elon Musk 旗下,风格独特 |
| DeepSeek | DeepSeek Reasoner | 国产开源,推理能力强 |
| Deep Infra | 多种开源模型 | 按量付费,价格实惠 |
| Baseten | 开源模型推理 | 企业级模型部署 |
| 302.AI | 多模型聚合 | 国内聚合平台 |
| SAP AI Core | 40+ 模型 | 企业 SAP 生态集成 |
| GitLab Duo | Claude 系列模型 | GitLab 原生 AI 助手 |
| Nebius Token Factory | Kimi K2 等 | 云端推理平台 |
| OVHcloud AI | gpt-oss-120b 等 | 欧洲基础设施 |
| Scaleway | devstral 等 | 欧洲云端推理 |
| STACKIT | Llama / Qwen 等 | 欧洲主权托管 |
| Venice AI | Llama 3.3 70B 等 | 注重隐私的推理服务 |
| IO.NET | 17 种优化模型 | 分布式 GPU 网络 |
| ZenMux | 多模型聚合 | 类似 OpenRouter |
| Cortecs | Kimi K2 等 | 新兴推理平台 |
| Ollama Cloud | 云端 Ollama 模型 | 本地 + 云端混合 |
小贴士:想查看完整提供商名单,在 OpenCode TUI 中运行
/connect,就能看到所有支持的提供商。
本地模型
| 工具 | 说明 | 适合场景 |
|---|---|---|
| Ollama | 最简单的本地模型运行方案 | 隐私要求高,想快速上手 |
| llama.cpp | 轻量级 C++ 推理引擎 | 低配机器,极致轻量 |
| LM Studio | 图形界面管理本地模型 | 不想碰命令行的用户 |
OpenCode Zen 精选模型网关
Zen 到底是什么?
OpenCode Zen 是 OpenCode 官方打造的精选模型网关,团队主要做了三件事:
- 测试筛选:对大范围模型进行编程能力评测,筛出适合编码代理的模型
- 优化部署:与提供商协作,确保模型以最佳状态运行
- 基准验证:对模型 + 提供商的组合进行基准测试,保证质量
Zen 完全是可选的——即便不用它,你仍然可以随意使用 OpenCode 里的任何其他提供商。
Zen 的亮点
| 优势 | 说明 |
|---|---|
| 精选验证 | 每个模型都经过编程能力测试 |
| 免费模型 | 6 个模型完全免费使用 |
| 统一计费 | 一个账户用所有模型,一个 API Key 搞定 |
| 按成本定价 | 几乎不加价,仅覆盖处理费用 |
| 自动充值 | 余额低于 $20 自动充值 |
| 零保留政策 | 提供商不将数据用于训练 |
| 团队支持 | 团队管理、角色权限、月度限额 |
免费模型一览
以下模型在 Zen 上完全免费使用(限时免费,抓紧体验):
| 模型 | 模型 ID | 来源 | 说明 |
|---|---|---|---|
| Big Pickle | big-pickle |
OpenCode Zen | 神秘免费模型,编程能力不错 |
| GPT 5 Nano | gpt-5-nano |
OpenAI | OpenAI 轻量级免费模型 |
| MiMo V2 Pro Free | mimo-v2-pro-free |
小米 | 小米出品,推理能力不错 |
| MiMo V2 Omni Free | mimo-v2-omni-free |
小米 | 小米多模态免费模型 |
| Nemotron 3 Super Free | nemotron-3-super-free |
NVIDIA | NVIDIA 出品,推理能力强 |
| MiniMax M2.5 Free | minimax-m2.5-free |
MiniMax | MiniMax 免费版 |
注意:免费模型在免费期间,收集的数据可能会用于改进模型(例如 Big Pickle、MiniMax M2.5 Free)。请勿提交个人或机密数据。
付费精选模型定价
Zen 付费模型按每百万 tokens(1M tokens)计费,价格极具竞争力:
第一梯队:顶级编程模型
| 模型 | 模型 ID | 输入价格 | 输出价格 | 最适合场景 |
|---|---|---|---|---|
| GPT 5.4 Pro | gpt-5.4-pro |
$30.00 | $180.00 | 最强推理,复杂架构 |
| Claude Opus 4.6 | claude-opus-4-6 |
$5.00 | $25.00 | 代码审查、大型重构 |
| GPT 5.4 | gpt-5.4 |
$2.50 | $15.00 | 综合编程、功能开发 |
第二梯队:高性价比模型
| 模型 | 模型 ID | 输入价格 | 输出价格 | 最适合场景 |
|---|---|---|---|---|
| Claude Sonnet 4.6 | claude-sonnet-4-6 |
$3.00 | $15.00 | 日常编程首选 |
| Gemini 3.1 Pro | gemini-3.1-pro |
$2.00 | $12.00 | 多模态任务 |
| GLM 5.1 | glm-5.1 |
$1.40 | $4.40 | 中文场景 |
第三梯队:轻量级模型
| 模型 | 模型 ID | 输入价格 | 输出价格 | 最适合场景 |
|---|---|---|---|---|
| GPT 5.4 Mini | gpt-5.4-mini |
$0.75 | $4.50 | 快速补全、简单任务 |
| Claude Haiku 4.5 | claude-haiku-4-5 |
$1.00 | $5.00 | 轻量任务 |
| Gemini 3 Flash | gemini-3-flash |
$0.50 | $3.00 | 最便宜的多模态 |
| Kimi K2.5 | kimi-k2.5 |
$0.60 | $3.00 | 长上下文任务 |
| MiniMax M2.5 | minimax-m2.5 |
$0.30 | $1.20 | 超低成本 |
Zen 使用三步走
第一步:获取 API Key
- 访问 opencode.ai/auth[1],注册并登录
- 添加账单信息
- 复制你的 API 密钥
第二步:连接 Zen
在 TUI 中执行:
/connect
选择 OpenCode Zen,粘贴 API 密钥。
第三步:选择模型
/models
浏览并挑选你需要的模型。
配置示例:
// opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"options": {
"apiKey": "{env:OPENCODE_API_KEY}"
}
}
},
"model": "opencode/claude-sonnet-4-6",
"small_model": "opencode/gpt-5-nano"
}
Zen 模型 ID 使用
opencode/<model-id>格式,例如 GPT 5.3 Codex 的配置 ID 为opencode/gpt-5.3-codex。
模型配置动手做
配置文件所在位置
OpenCode 的模型配置写在 opencode.json 中,支持 JSON 和 JSONC(带注释的 JSON)格式:
| 配置级别 | 文件位置 | 优先级 |
|---|---|---|
| 远程配置 | .well-known/opencode |
最低(组织默认值) |
| 全局配置 | ~/.config/opencode/opencode.json |
中(用户偏好) |
| 项目配置 | 项目根目录/opencode.json |
高(项目覆盖) |
配置文件是合并的,不是替换。项目配置可以覆盖全局配置。
基础配置范例
使用 OpenAI:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"options": {
"apiKey": "{env:OPENAI_API_KEY}"
}
}
},
"model": "openai/gpt-5.4",
"small_model": "openai/gpt-5.4-mini"
}
使用 Anthropic Claude:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"apiKey": "{env:ANTHROPIC_API_KEY}"
}
}
},
"model": "anthropic/claude-sonnet-4-6",
"small_model": "anthropic/claude-haiku-4-5"
}
使用智谱 GLM:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zai": {
"options": {
"apiKey": "{env:ZAI_API_KEY}"
}
}
},
"model": "zai/glm-5.1"
}
注意:模型 ID 格式统一为
provider/model-name,配置字段名为provider(不是providers)。API Key 推荐采用{env:VARIABLE_NAME}环境变量语法。
高级配置:不同代理分派不同模型
这是 OpenCode 模型配置中最强大的能力之一——为不同的代理指定各自的模型:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"options": { "apiKey": "{env:OPENAI_API_KEY}" }
},
"anthropic": {
"options": { "apiKey": "{env:ANTHROPIC_API_KEY}" }
}
},
"model": "anthropic/claude-sonnet-4-6",
"small_model": "anthropic/claude-haiku-4-5",
"agent": {
"code-reviewer": {
"description": "Reviews code for best practices and potential issues",
"model": "anthropic/claude-opus-4-6",
"prompt": "You are a code reviewer. Focus on security, performance, and maintainability.",
"tools": {
"write": false,
"edit": false
}
}
}
}
配置逻辑:
model:主模型,用来承担日常编程(Sonnet 级,性价比最高)small_model:轻量模型,负责标题生成、上下文压缩等后台任务agent.code-reviewer.model:代码审查代理使用更强的 Opus 模型agent.code-reviewer.tools:审查代理唯读,关闭写入工具
本地模型配置
Ollama:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"qwen2.5-coder:32b": {
"name": "Qwen 2.5 Coder 32B (local)"
}
}
}
},
"model": "ollama/qwen2.5-coder:32b"
}
LM Studio:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
},
"model": "lmstudio/google/gemma-3n-e4b"
}
llama.cpp:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
},
"model": "llama.cpp/qwen3-coder:a3b"
}
关键字段说明:
npm:指定 AI SDK 包,本地模型统一用@ai-sdk/openai-compatiblemodels:模型 ID 到显示名称的映射,可自定义limit.context:模型最大输入 tokens 数limit.output:模型最大输出 tokens 数
自定义 OpenAI 兼容提供商
任何兼容 OpenAI API 格式的提供商都能接入:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"my-provider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI Provider",
"options": {
"baseURL": "https://api.example.com/v1",
"apiKey": "{env:CUSTOM_API_KEY}",
"headers": {
"X-Custom-Header": "custom-value"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
},
"model": "my-provider/my-model-name"
}
npm 包选择:如果提供商走
/v1/chat/completions接口,使用@ai-sdk/openai-compatible;如果走/v1/responses接口,使用@ai-sdk/openai。
也可以通过 /connect 命令交互式添加自定义提供商:
/connect
# 向下滚动选择 "Other"
# 输入提供商 ID(如 myprovider)
# 输入 API Key
# 然后在 opencode.json 中配置 models 和 baseURL
small_model 的深层用法
small_model 是 OpenCode 配置中容易被低估却至关重要的字段,它不仅用于标题生成,实际上是一系列内部代理的默认模型。
small_model 究竟是什么?
{
"$schema": "https://opencode.ai/config.json",
"model": "anthropic/claude-sonnet-4-6",
"small_model": "anthropic/claude-haiku-4-5"
}
small_model 为以下轻量级后台任务指定独立模型。如果未设置,OpenCode 会尽量选用提供商更便宜的模型,找不到则回退到主模型。
small_model 驱动的三个代理
small_model
Title 代理会话标题生成
Compaction 代理上下文压缩
Summary 代理会话摘要
| 代理 | 触发时机 | 任务说明 | 对模型的要求 |
|---|---|---|---|
| Title 代理 | 每次新对话开始时 | 根据对话内容自动生成会话标题 | 低:只需理解语义、输出短文本 |
| Compaction 代理 | 上下文接近满时 | 压缩历史对话,保留关键信息 | 中:需要理解长上下文并提取要点 |
| Summary 代理 | 会话归档时 | 生成会话摘要 | 低:短文本摘要能力即可 |
挑选 small_model 的原则
- 务必便宜:这些任务频繁调用,用贵的模型浪费资金
- 速度优先:后台任务不应阻塞主对话
- 上下文窗口要够:Compaction 代理需要处理较长上下文
推荐组合:
| 主模型 | 推荐 small_model | 月均成本估算 |
|---|---|---|
anthropic/claude-sonnet-4-6 |
anthropic/claude-haiku-4-5 |
主模型 90%,small 10% |
opencode/claude-sonnet-4-6 |
opencode/gpt-5-nano |
主模型 95%,small 5% |
openai/gpt-5.4 |
openai/gpt-5.4-mini |
主模型 90%,small 10% |
zai/glm-5.1 |
opencode/gpt-5-nano |
主模型 90%,small 10% |
省钱技巧:small_model 可以跨提供商选择。比如主模型用 Anthropic Claude,small_model 用 Zen 的
opencode/gpt-5-nano(免费),后台任务零成本。
模型选择策略
按场景匹配模型
日常编程
复杂架构
快速问答
中文项目
零成本
隐私要求
企业合规
选择模型
什么场景?
Claude Sonnet 4.6性价比之王
Opus 4.6 / GPT 5.4 Pro最强编程
GPT 5.4 Mini便宜快速
GLM 5.1中文理解好
Zen 免费模型完全免费
Ollama 本地数据不出门
Azure / Bedrock安全合规
成本优化指南
| 策略 | 做法 | 预估节省 |
|---|---|---|
| 分级使用 | 主模型用 Sonnet,small_model 用 Haiku/Nano | 30-50% |
| 免费起步 | 先用 Zen 免费模型,不够再升级 | 100%(初期) |
| 本地辅助 | 简单任务用 Ollama,复杂任务用云端 | 40-60% |
| 上下文管理 | 定期 /compact 压缩上下文 |
20-30% |
| 按需切换 | 不同代理配置不同模型 | 灵活控制 |
| 缓存优化 | 启用 setCacheKey 利用提示缓存 |
最多 90% 输入成本 |
缓存优化示例:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"apiKey": "{env:ANTHROPIC_API_KEY}",
"setCacheKey": true,
"timeout": 600000
}
}
},
"model": "anthropic/claude-sonnet-4-6"
}
setCacheKey: true确保始终为提供商设置缓存键,利用 Anthropic 的提示缓存功能,缓存读取价格仅为正常价格的 10%。
新手推荐配置
零成本起步
适合:刚接触 AI 编程,想先试试效果
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {}
},
"model": "opencode/big-pickle",
"small_model": "opencode/gpt-5-nano"
}
月成本:$0(全部使用 Zen 免费模型)
日常开发(性价比优先)
适合:每天使用 AI 辅助编程的开发者
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": { "apiKey": "{env:ANTHROPIC_API_KEY}" }
}
},
"model": "anthropic/claude-sonnet-4-6",
"small_model": "anthropic/claude-haiku-4-5"
}
月成本:约 $20-50(视使用频率而定)
重度用户(能力优先)
适合:全职依赖 AI 编程的高级开发者
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": { "apiKey": "{env:ANTHROPIC_API_KEY}" }
},
"openai": {
"options": { "apiKey": "{env:OPENAI_API_KEY}" }
}
},
"model": "anthropic/claude-opus-4-6",
"small_model": "openai/gpt-5.4-mini"
}
月成本:约 $100-300(复杂任务用 Opus,轻量任务用 Mini)
进阶技巧
1. 用环境变量保护 API Key
绝对不要把 API Key 硬编码在配置文件中,尤其是当配置文件可能被提交到 Git 时:
# 在 ~/.bashrc 或 ~/.zshrc 中设置环境变量
export OPENAI_API_KEY="sk-xxx"
export ANTHROPIC_API_KEY="sk-ant-xxx"
export ZAI_API_KEY="xxx"
export OPENCODE_API_KEY="oc-xxx"
也可以利用文件引用:
{
"provider": {
"openai": {
"options": {
"apiKey": "{file:~/.secrets/openai-key}"
}
}
}
}
2. 订阅制认证(无需 API Key)
OpenCode 支持通过订阅直接认证,省去 API Key:
- Claude Pro/Max:
/connect-> Anthropic -> Claude Pro/Max - ChatGPT Plus/Pro:
/connect-> OpenAI -> ChatGPT Plus/Pro - GitHub Copilot:
/connect-> GitHub Copilot -> 设备码认证
3. 启用/禁用特定提供商
如果环境变量中配置了许多提供商的 Key,但只打算使用其中几个:
{
"$schema": "https://opencode.ai/config.json",
"enabled_providers": ["anthropic", "opencode"]
}
或者排除特定提供商:
{
"$schema": "https://opencode.ai/config.json",
"disabled_providers": ["gemini"]
}
4. 配置提供商超时
某些复杂任务可能需要更久的响应时间:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"apiKey": "{env:ANTHROPIC_API_KEY}",
"timeout": 600000
}
}
}
}
timeout单位为毫秒,默认 300000(5 分钟),设置为false可禁用超时。
5. Amazon Bedrock 企业配置
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}
支持多种认证方式:AWS Access Key、命名 Profile、Bearer Token、EKS IRSA。
常见问题(FAQ)
Q1: 没有 API Key 能用 OpenCode 吗?
完全可以。 使用 OpenCode Zen 的免费模型,只需注册一个 Zen 账户。Big Pickle、GPT 5 Nano、MiniMax M2.5 Free 等模型完全免费。
Q2: 哪个模型编程能力最强?
根据 OpenCode 团队的测试,Claude Opus 4.6 和 GPT 5.4 Pro 在编程任务上表现最强。日常开发推荐 Claude Sonnet 4.6,性价比最高。
Q3: 国内模型能用于编程吗?
当然可以。GLM 5.1 和 Qwen 3.6 Plus 的编程能力已相当不错,尤其擅长中文场景下的开发。通过 Zen 也可直接使用 opencode/glm-5.1,价格比直连更友好。
Q4: 本地模型性能够用吗?
取决于硬件和模型选择。Qwen 2.5 Coder 32B 在 32 GB 内存的机器上表现不错,适合中小型项目。大型项目仍建议云端模型。关键是选参数合适的模型——并非越大越好,要看硬件能否流畅运行。
Q5: 可以在对话中切换模型吗?
可以在 opencode.json 中修改 model 字段,重启 OpenCode 后生效。也可通过 TUI 中的 /models 命令交互式切换。不同代理可配置不同模型,这样无需频繁切换。
Q6: small_model 必须配置吗?
不是必须的。若不配置,OpenCode 会自动选择提供商更便宜的模型。但建议显式配置,以便精准控制成本。推荐使用免费的 opencode/gpt-5-nano。
Q7: 多个提供商可以同时使用吗?
可以。在 provider 中配置多个提供商,然后在不同场景使用不同模型。比如主模型用 Anthropic Claude,small_model 用 Zen 免费模型,代理用 OpenAI GPT。
Q8: 如何排查提供商连接问题?
- 运行
opencode auth list查看已配置的凭据 - 确认
/connect中使用的提供商 ID 与opencode.json一致 - 检查
baseURL是否正确 - 确认使用了正确的 npm 包(
@ai-sdk/openai-compatible与@ai-sdk/openai)
总结
OpenCode 模型体系 = 75+ 提供商 + Zen 精选网关 + 本地模型 + 自定义兼容
核心原则:没有一个模型是完美的,但 OpenCode 让你永远有得选。
按需求选方案:
- 零成本起步:Zen 免费模型(Big Pickle / GPT 5 Nano)
- 性价比日常:Sonnet 4.6 + Haiku 4.5
- 重度编程:Opus 4.6 + GPT 5.4 Pro
- 隐私优先:Ollama 本地模型
- 国内优选:GLM 5.1 + Qwen 3.6 Plus
- 企业合规:Azure OpenAI / Amazon Bedrock
核心配置口诀:
- 主模型 (
model) 选能力——日常用 Sonnet,复杂用 Opus - 轻量模型 (
small_model) 选便宜——Haiku / Mini / Nano - 自定义代理 (
agent) 按需配——审查用 Opus,探索用 Mini - API Key 放环境变量——安全第一
- 不确定就选 Zen——团队帮你验证过的模型
延伸阅读
- OpenCode 提供商官方文档[2]
- OpenCode Zen 介绍[3]
- 配置系统详解[4]
- 上一篇:OpenCode 入门——安装、配置与快速上手[5]
- 下一篇:代理与工具——OpenCode 智能操作体系[6]
模型配置是 AI 编程的基本功,建议收藏📌这篇文章,随时翻看。
引用链接
[1] opencode.ai/auth: https://opencode.ai/auth
[2] OpenCode 提供商官方文档: https://opencode.ai/docs/zh-cn/providers
[3] OpenCode Zen 介绍: https://opencode.ai/docs/zh-cn/zen
[4] 配置系统详解: https://opencode.ai/docs/zh-cn/config
[5] OpenCode 入门——安装、配置与快速上手: 01-what-is-opencode.md
[6] 代理与工具——OpenCode 智能操作体系: 03-agents-tools-mcp.md