Go
低成本的开源编程模型订阅服务。
Vikasit Code Go 是一项低成本的订阅服务 —— 首月 5 美元,之后 每月 10 美元 —— 让你能够稳定地访问流行的开源编程模型。
Go 的工作方式与 Vikasit Code 中的任何其他提供商(provider)一样。订阅 Vikasit Code Go 后你将获得 API 密钥。它是 完全可选 的,并非使用 Vikasit Code 所必需的条件。
它主要为国际用户设计,模型托管在美国、欧盟和新加坡,以确保稳定的全球访问。
背景
开源模型现在变得非常强大。在编程任务中,它们的性能已接近专有模型。由于许多提供商都可以提供具有竞争力的服务,它们通常要便宜得多。
然而,获得可靠、低延迟的访问可能很困难。各提供商在质量和可用性方面参差不齐。
为了解决这个问题,我们做了以下几件事:
- 我们测试了一组精选的开源模型,并与他们的团队探讨了如何以最佳方式运行它们。
- 随后我们与一些提供商合作,以确保正确提供这些服务。
- 最后,我们对模型和提供商的组合进行了基准测试(benchmark),得出了一份我们乐于推荐的列表。
Vikasit Code Go 让你能够访问这些模型,首月只需 5 美元,之后 每月 10 美元。
工作原理
Vikasit Code Go 的工作方式与 Vikasit Code 中的其他提供商一样。
- 登录 Vikasit Code Zen,订阅 Go,然后复制你的 API 密钥。
- 在 TUI 中运行
/connect命令,选择Vikasit Code Go,然后粘贴你的 API 密钥。 - 在 TUI 中运行
/models以查看通过 Go 可用的模型列表。
当前支持的模型列表包括:
- GLM-5
- Kimi K2.5
- MiniMax M2.5
- MiniMax M2.7
随着我们进行测试和添加新模型,该列表可能会发生变化。
使用限制
Vikasit Code Go 包含以下限制:
- 5 小时限制 — 12 美元使用额度
- 每周限制 — 30 美元使用额度
- 每月限制 — 60 美元使用额度
限制以美元价值定义。这意味着你的实际请求数取决于你所使用的模型。较便宜的模型(如 MiniMax M2.5)允许更多请求,而较高成本的模型(如 GLM-5)允许较少请求。
下表提供了基于典型 Go 使用模式的预估请求数:
| GLM-5 | Kimi K2.5 | MiniMax M2.7 | MiniMax M2.5 | |
|---|---|---|---|---|
| 每 5 小时请求数 | 1,150 | 1,850 | 14,000 | 20,000 |
| 每周请求数 | 2,880 | 4,630 | 35,000 | 50,000 |
| 每月请求数 | 5,750 | 9,250 | 70,000 | 100,000 |
预估值基于观察到的平均请求模式:
- GLM-5 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
- Kimi K2.5 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
- MiniMax M2.7/M2.5 — 每次请求 300 个输入 token,55,000 个缓存 token,125 个输出 token
你可以在 控制台 中跟踪你当前的使用情况。
使用限制可能会随着我们从早期使用和反馈中学习而发生变化。
超出限制的使用
如果你的 Zen 余额中还有积分,可以在控制台中启用 使用余额(Use balance) 选项。启用后,当你达到使用限制时,Go 会回退使用你的 Zen 余额,而不是拦截请求。
API 端点
你也可以通过以下 API 端点访问 Go 模型。
| 模型 | 模型 ID | 端点 | AI SDK 包 |
|---|---|---|---|
| GLM-5 | glm-5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/go/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.7 | minimax-m2.7 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
| MiniMax M2.5 | minimax-m2.5 | https://opencode.ai/zen/go/v1/messages | @ai-sdk/anthropic |
你 Vikasit Code 配置中的 模型 ID 使用 opencode-go/<model-id> 格式。例如,对于 Kimi K2.5,你将在配置中使用 opencode-go/kimi-k2.5。
隐私保护
该方案主要面向国际用户,模型托管在 US、EU 和 Singapore,以提供稳定的全球访问。我们的提供商遵循零保留政策,不会将您的数据用于模型训练。
目标
我们创建 Vikasit Code Go 的目的是:
- 通过低成本订阅让更多人能够 无门槛地 使用 AI 编程。
- 为最佳开源编程模型提供 可靠的 访问。
- 精选经过 测试和基准评估,适合编程 Agent 使用的模型。
- 无锁定(no lock-in),允许你与 Vikasit Code 一起使用任何其他提供商。