跳到內容

提供商

在 Vikasit Code 中使用任意 LLM 提供商。

Vikasit Code 使用 AI SDKModels.dev,支援 75+ LLM 提供商,同時也支援執行本地模型。

要新增提供商,您需要:

  1. 使用 /connect 指令新增提供商的 API 金鑰。
  2. 在 Vikasit Code 設定中設定該提供商。

憑證

使用 /connect 指令新增提供商的 API 金鑰後,憑證會儲存在 ~/.local/share/opencode/auth.json 中。


設定

您可以透過 Vikasit Code 設定中的 provider 部分來自訂提供商。


自訂 Base URL

您可以透過設定 baseURL 選項來自訂任何提供商的 Base URL。這在使用代理服務或自訂端點時非常有用。

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

Vikasit Code Zen

Vikasit Code Zen 是由 Vikasit Code 團隊提供的模型列表,這些模型已經過測試和驗證,能夠與 Vikasit Code 良好配合使用。了解更多

  1. 在 TUI 中執行 /connect 指令,選擇 Vikasit Code Zen,然後前往 vikasit.ai/auth

    /connect
  2. 登入後新增帳單資訊,然後複製您的 API 金鑰。

  3. 貼上您的 API 金鑰。

    ┌ API key
    └ enter
  4. 在 TUI 中執行 /models 查看我們推薦的模型列表。

    /models

它的使用方式與 Vikasit Code 中的其他提供商完全相同,且完全可選。


Vikasit Code Go

Vikasit Code Go 是一個低成本的訂閱計畫,提供對 Vikasit Code 團隊提供的流行開放編碼模型的可靠存取,這些模型已經過測試和驗證,能夠與 Vikasit Code 良好配合使用。

  1. 在 TUI 中執行 /connect 指令,選擇 Vikasit Code Go,然後前往 vikasit.ai/auth

    /connect
  2. 登入後新增帳單資訊,然後複製您的 API 金鑰。

  3. 貼上您的 API 金鑰。

    ┌ API key
    └ enter
  4. 在 TUI 中執行 /models 查看我們推薦的模型列表。

    /models

它的使用方式與 Vikasit Code 中的任何其他提供商相同,且完全可選。


目錄

下面我們來詳細了解一些提供商。如果您想將某個提供商新增到列表中,歡迎提交 PR。


302.AI

  1. 前往 302.AI 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 302.AI

    /connect
  3. 輸入您的 302.AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Amazon Bedrock

要在 Vikasit Code 中使用 Amazon Bedrock:

  1. 前往 Amazon Bedrock 控制台中的模型目錄,申請存取您想要使用的模型。

  2. 使用以下方法之一設定身分驗證

    環境變數(快速上手)

    執行 vikasit 時設定以下環境變數之一:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY vikasit
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile vikasit
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX vikasit

    或者將它們新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    設定檔(推薦)

    如需專案級別或持久化的設定,請使用 vikasit.json

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    可用選項:

    • region - AWS 區域(例如 us-east-1eu-west-1
    • profile - ~/.aws/credentials 中的 AWS 命名設定檔
    • endpoint - VPC 端點的自訂端點 URL(通用 baseURL 選項的別名)

    進階:VPC 端點

    如果您使用 Bedrock 的 VPC 端點:

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    認證方式

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY:在 AWS 控制台中建立 IAM 使用者並產生存取金鑰
    • AWS_PROFILE:使用 ~/.aws/credentials 中的命名設定檔。需要先透過 aws configure --profile my-profileaws sso login 進行設定
    • AWS_BEARER_TOKEN_BEDROCK:從 Amazon Bedrock 控制台產生長期 API 金鑰
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN:適用於 EKS IRSA(服務帳號的 IAM 角色)或其他支援 OIDC 聯合的 Kubernetes 環境。使用服務帳號註解時,Kubernetes 會自動注入這些環境變數。

    認證優先順序

    Amazon Bedrock 使用以下認證優先順序:

    1. Bearer Token - AWS_BEARER_TOKEN_BEDROCK 環境變數或透過 /connect 指令取得的 Token
    2. AWS 憑證鏈 - 設定檔、存取金鑰、共享憑證、IAM 角色、Web Identity Token(EKS IRSA)、執行個體中繼資料
  3. 執行 /models 指令選擇您想要的模型。

    /models

Anthropic

  1. 註冊完成後,執行 /connect 指令並選擇 Anthropic。

    /connect
  2. 您可以選擇 Claude Pro/Max 選項,瀏覽器會自動開啟並要求您進行身分驗證。

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 現在使用 /models 指令即可看到所有 Anthropic 模型。

    /models

在 Vikasit Code 中使用 Claude Pro/Max 訂閱不是 Anthropic 官方支援的用法。

使用 API 金鑰

如果您沒有 Pro/Max 訂閱,也可以選擇 Create an API Key。瀏覽器會自動開啟並要求您登入 Anthropic,然後會提供一個代碼供您貼上到終端機中。

如果您已經有 API 金鑰,可以選擇 Manually enter API Key 並將其貼上到終端機中。


Azure OpenAI

  1. 前往 Azure 入口網站並建立 Azure OpenAI 資源。您需要:

    • 資源名稱:這會成為您的 API 端點的一部分(https://RESOURCE_NAME.openai.azure.com/
    • API 金鑰:資源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 並部署一個模型。

  3. 執行 /connect 指令並搜尋 Azure

    /connect
  4. 輸入您的 API 金鑰。

    ┌ API key
    └ enter
  5. 將資源名稱設定為環境變數:

    Terminal window
    AZURE_RESOURCE_NAME=XXX vikasit

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. 執行 /models 指令選擇您已部署的模型。

    /models

Azure Cognitive Services

  1. 前往 Azure 入口網站並建立 Azure OpenAI 資源。您需要:

    • 資源名稱:這會成為您的 API 端點的一部分(https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/
    • API 金鑰:資源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 並部署一個模型。

  3. 執行 /connect 指令並搜尋 Azure Cognitive Services

    /connect
  4. 輸入您的 API 金鑰。

    ┌ API key
    └ enter
  5. 將資源名稱設定為環境變數:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX vikasit

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. 執行 /models 指令選擇您已部署的模型。

    /models

Baseten

  1. 前往 Baseten,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Baseten

    /connect
  3. 輸入您的 Baseten API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Cerebras

  1. 前往 Cerebras 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Cerebras

    /connect
  3. 輸入您的 Cerebras API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Qwen 3 Coder 480B

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway 允許您透過統一端點存取來自 OpenAI、Anthropic、Workers AI 等提供商的模型。透過 Unified Billing,您無需為每個提供商單獨準備 API 金鑰。

  1. 前往 Cloudflare 儀表板,導覽到 AI > AI Gateway,建立一個新的閘道。

  2. 將您的 Account ID 和 Gateway ID 設定為環境變數。

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. 執行 /connect 指令並搜尋 Cloudflare AI Gateway

    /connect
  4. 輸入您的 Cloudflare API Token。

    ┌ API key
    └ enter

    或者將其設定為環境變數。

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 執行 /models 指令選擇模型。

    /models

    您也可以透過 Vikasit Code 設定新增模型。

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. 前往 Cortecs 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Cortecs

    /connect
  3. 輸入您的 Cortecs API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

DeepSeek

  1. 前往 DeepSeek 控制台,建立帳號並點擊 Create new API key

  2. 執行 /connect 指令並搜尋 DeepSeek

    /connect
  3. 輸入您的 DeepSeek API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇 DeepSeek 模型,例如 DeepSeek Reasoner

    /models

Deep Infra

  1. 前往 Deep Infra 儀表板,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Deep Infra

    /connect
  3. 輸入您的 Deep Infra API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Firmware

  1. 前往 Firmware 儀表板,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Firmware

    /connect
  3. 輸入您的 Firmware API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Fireworks AI

  1. 前往 Fireworks AI 控制台,建立帳號並點擊 Create API Key

  2. 執行 /connect 指令並搜尋 Fireworks AI

    /connect
  3. 輸入您的 Fireworks AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

GitLab Duo

GitLab Duo 透過 GitLab 的 Anthropic 代理提供具有原生工具呼叫能力的 AI 驅動代理聊天。

  1. 執行 /connect 指令並選擇 GitLab。

    /connect
  2. 選擇您的身分驗證方式:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    使用 OAuth(推薦)

    選擇 OAuth,瀏覽器會自動開啟進行授權。

    使用個人存取權杖

    1. 前往 GitLab 使用者設定 > Access Tokens
    2. 點擊 Add new token
    3. 名稱填寫 Vikasit Code,範圍選擇 api
    4. 複製權杖(以 glpat- 開頭)
    5. 在終端機中輸入該權杖
  3. 執行 /models 指令查看可用模型。

    /models

    提供三個基於 Claude 的模型:

    • duo-chat-haiku-4-5(預設)- 快速回應,適合簡單任務
    • duo-chat-sonnet-4-5 - 效能均衡,適合大多數工作流程
    • duo-chat-opus-4-5 - 最強大,適合複雜分析
自架 GitLab

對於自架 GitLab 實例:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

如果您的實例執行了自訂 AI Gateway:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

或者新增到您的 bash 設定檔中:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
自架實例的 OAuth

要在自架實例上使用 OAuth,您需要建立一個新應用程式(設定 → 應用程式),回呼 URL 設定為 http://127.0.0.1:8080/callback,並選擇以下範圍:

  • api(代表您存取 API)
  • read_user(讀取您的個人資訊)
  • read_repository(允許對儲存庫進行唯讀存取)

然後將應用程式 ID 匯出為環境變數:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

更多文件請參閱 opencode-gitlab-auth 首頁。

設定

透過 vikasit.json 進行自訂設定:

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com"
}
}
}
}
GitLab API 工具(可選,但強烈推薦)

要存取 GitLab 工具(合併請求、Issue、流水線、CI/CD 等):

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["opencode-gitlab-plugin"]
}

該外掛提供全面的 GitLab 儲存庫管理功能,包括 MR 審查、Issue 追蹤、流水線監控等。


GitHub Copilot

要在 Vikasit Code 中使用您的 GitHub Copilot 訂閱:

  1. 執行 /connect 指令並搜尋 GitHub Copilot。

    /connect
  2. 前往 github.com/login/device 並輸入驗證碼。

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 現在執行 /models 指令選擇您想要的模型。

    /models

Google Vertex AI

要在 Vikasit Code 中使用 Google Vertex AI:

  1. 前往 Google Cloud Console 中的模型花園,查看您所在區域可用的模型。

  2. 設定所需的環境變數:

    • GOOGLE_CLOUD_PROJECT:您的 Google Cloud 專案 ID
    • VERTEX_LOCATION(可選):Vertex AI 的區域(預設為 global
    • 身分驗證(選擇其一):
      • GOOGLE_APPLICATION_CREDENTIALS:服務帳號 JSON 金鑰檔案的路徑
      • 使用 gcloud CLI 進行身分驗證:gcloud auth application-default login

    在執行 vikasit 時設定:

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id vikasit

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. 執行 /models 指令選擇您想要的模型。

    /models

Groq

  1. 前往 Groq 控制台,點擊 Create API Key 並複製金鑰。

  2. 執行 /connect 指令並搜尋 Groq。

    /connect
  3. 輸入該提供商的 API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇您想要的模型。

    /models

Hugging Face

Hugging Face Inference Providers 提供對由 17+ 提供商支援的開放模型的存取。

  1. 前往 Hugging Face 設定,建立一個具有呼叫 Inference Providers 權限的權杖。

  2. 執行 /connect 指令並搜尋 Hugging Face

    /connect
  3. 輸入您的 Hugging Face 權杖。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi-K2-InstructGLM-4.6

    /models

Helicone

Helicone 是一個 LLM 可觀測性平台,為您的 AI 應用程式提供日誌記錄、監控和分析功能。Helicone AI Gateway 會根據模型自動將請求路由到對應的提供商。

  1. 前往 Helicone,建立帳號並在儀表板中產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Helicone

    /connect
  3. 輸入您的 Helicone API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

如需了解更多提供商以及快取、速率限制等進階功能,請查閱 Helicone 文件

可選設定

如果 Helicone 的某些功能或模型未透過 Vikasit Code 自動設定,您隨時可以手動設定。

Helicone 模型目錄中可以找到您需要新增的模型 ID。

~/.config/opencode/vikasit.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

自訂請求標頭

Helicone 支援用於快取、使用者追蹤和工作階段管理等功能的自訂請求標頭。使用 options.headers 將它們新增到提供商設定中:

~/.config/opencode/vikasit.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "vikasit",
},
},
},
},
}
工作階段追蹤

Helicone 的 Sessions 功能允許您將相關的 LLM 請求歸為一組。使用 opencode-helicone-session 外掛可以自動將每個 Vikasit Code 對話記錄為 Helicone 中的一個工作階段。

Terminal window
npm install -g opencode-helicone-session

將其新增到設定中。

vikasit.json
{
"plugin": ["opencode-helicone-session"]
}

該外掛會在您的請求中注入 Helicone-Session-IdHelicone-Session-Name 請求標頭。在 Helicone 的 Sessions 頁面中,您可以看到每個 Vikasit Code 對話都作為獨立的工作階段列出。

常用 Helicone 請求標頭
請求標頭描述
Helicone-Cache-Enabled啟用回應快取(true/false
Helicone-User-Id按使用者追蹤指標
Helicone-Property-[Name]新增自訂屬性(例如 Helicone-Property-Environment
Helicone-Prompt-Id將請求與提示詞版本關聯

有關所有可用請求標頭,請參閱 Helicone Header Directory


llama.cpp

您可以透過 llama.cpp 的 llama-server 工具設定 Vikasit Code 使用本地模型。

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

在這個範例中:

  • llama.cpp 是自訂的提供商 ID,可以是任意字串。
  • npm 指定該提供商使用的套件。這裡使用 @ai-sdk/openai-compatible 來相容任何 OpenAI 相容的 API。
  • name 是該提供商在 UI 中顯示的名稱。
  • options.baseURL 是本地伺服器的端點位址。
  • models 是模型 ID 到其設定的對應。模型名稱會顯示在模型選擇列表中。

IO.NET

IO.NET 提供 17 個針對不同使用情境最佳化的模型:

  1. 前往 IO.NET 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 IO.NET

    /connect
  3. 輸入您的 IO.NET API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

LM Studio

您可以透過 LM Studio 設定 Vikasit Code 使用本地模型。

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

在這個範例中:

  • lmstudio 是自訂的提供商 ID,可以是任意字串。
  • npm 指定該提供商使用的套件。這裡使用 @ai-sdk/openai-compatible 來相容任何 OpenAI 相容的 API。
  • name 是該提供商在 UI 中顯示的名稱。
  • options.baseURL 是本地伺服器的端點位址。
  • models 是模型 ID 到其設定的對應。模型名稱會顯示在模型選擇列表中。

Moonshot AI

要使用 Moonshot AI 的 Kimi K2:

  1. 前往 Moonshot AI 控制台,建立帳號並點擊 Create API key

  2. 執行 /connect 指令並搜尋 Moonshot AI

    /connect
  3. 輸入您的 Moonshot API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇 Kimi K2

    /models

MiniMax

  1. 前往 MiniMax API 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 MiniMax

    /connect
  3. 輸入您的 MiniMax API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 M2.1

    /models

Nebius Token Factory

  1. 前往 Nebius Token Factory 控制台,建立帳號並點擊 Add Key

  2. 執行 /connect 指令並搜尋 Nebius Token Factory

    /connect
  3. 輸入您的 Nebius Token Factory API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

Ollama

您可以透過 Ollama 設定 Vikasit Code 使用本地模型。

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

在這個範例中:

  • ollama 是自訂的提供商 ID,可以是任意字串。
  • npm 指定該提供商使用的套件。這裡使用 @ai-sdk/openai-compatible 來相容任何 OpenAI 相容的 API。
  • name 是該提供商在 UI 中顯示的名稱。
  • options.baseURL 是本地伺服器的端點位址。
  • models 是模型 ID 到其設定的對應。模型名稱會顯示在模型選擇列表中。

Ollama Cloud

要在 Vikasit Code 中使用 Ollama Cloud:

  1. 前往 https://ollama.com/ 登入或建立帳號。

  2. 導覽到 Settings > Keys,點擊 Add API Key 產生新的 API 金鑰。

  3. 複製 API 金鑰以便在 Vikasit Code 中使用。

  4. 執行 /connect 指令並搜尋 Ollama Cloud

    /connect
  5. 輸入您的 Ollama Cloud API 金鑰。

    ┌ API key
    └ enter
  6. 重要:在 Vikasit Code 中使用雲端模型之前,必須先將模型資訊拉取到本地:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. 執行 /models 指令選擇您的 Ollama Cloud 模型。

    /models

OpenAI

我們建議註冊 ChatGPT Plus 或 Pro

  1. 註冊完成後,執行 /connect 指令並選擇 OpenAI。

    /connect
  2. 您可以選擇 ChatGPT Plus/Pro 選項,瀏覽器會自動開啟並要求您進行身分驗證。

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 現在使用 /models 指令即可看到所有 OpenAI 模型。

    /models
使用 API 金鑰

如果您已經有 API 金鑰,可以選擇 Manually enter API Key 並將其貼上到終端機中。


Vikasit Code Zen

Vikasit Code Zen 是由 Vikasit Code 團隊提供的經過測試和驗證的模型列表。了解更多

  1. 登入 Vikasit Code Zen 並點擊 Create API Key

  2. 執行 /connect 指令並搜尋 Vikasit Code Zen

    /connect
  3. 輸入您的 Vikasit Code API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Qwen 3 Coder 480B

    /models

OpenRouter

  1. 前往 OpenRouter 儀表板,點擊 Create API Key 並複製金鑰。

  2. 執行 /connect 指令並搜尋 OpenRouter。

    /connect
  3. 輸入該提供商的 API 金鑰。

    ┌ API key
    └ enter
  4. 預設已預先載入了許多 OpenRouter 模型,執行 /models 指令選擇您想要的模型。

    /models

    您也可以透過 Vikasit Code 設定新增更多模型。

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. 您還可以透過 Vikasit Code 設定自訂模型。以下是指定提供商的範例:

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core 透過統一平台提供對來自 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40+ 模型的存取。

  1. 前往 SAP BTP Cockpit,導覽到您的 SAP AI Core 服務實例,並建立服務金鑰。

  2. 執行 /connect 指令並搜尋 SAP AI Core

    /connect
  3. 輸入您的服務金鑰 JSON。

    ┌ Service key
    └ enter

    或者設定 AICORE_SERVICE_KEY 環境變數:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' vikasit

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. 可選:設定部署 ID 和資源群組:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group vikasit
  5. 執行 /models 指令從 40+ 個可用模型中進行選擇。

    /models

STACKIT

STACKIT AI Model Serving 提供完全託管的主權託管環境,專注於 Llama、Mistral 和 Qwen 等大語言模型,在歐洲基礎設施上實現最大程度的資料主權。

  1. 前往 STACKIT Portal,導覽到 AI Model Serving,為您的專案建立認證權杖。

  2. 執行 /connect 指令並搜尋 STACKIT

    /connect
  3. 輸入您的 STACKIT AI Model Serving 認證權杖。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Qwen3-VL 235BLlama 3.3 70B

    /models

OVHcloud AI Endpoints

  1. 前往 OVHcloud 管理面板。導覽到 Public Cloud 部分,AI & Machine Learning > AI Endpoints,在 API Keys 分頁中點擊 Create a new API key

  2. 執行 /connect 指令並搜尋 OVHcloud AI Endpoints

    /connect
  3. 輸入您的 OVHcloud AI Endpoints API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 gpt-oss-120b

    /models

Scaleway

要在 Vikasit Code 中使用 Scaleway Generative APIs

  1. 前往 Scaleway Console IAM 設定產生新的 API 金鑰。

  2. 執行 /connect 指令並搜尋 Scaleway

    /connect
  3. 輸入您的 Scaleway API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 devstral-2-123b-instruct-2512gpt-oss-120b

    /models

Together AI

  1. 前往 Together AI 控制台,建立帳號並點擊 Add Key

  2. 執行 /connect 指令並搜尋 Together AI

    /connect
  3. 輸入您的 Together AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

Venice AI

  1. 前往 Venice AI 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Venice AI

    /connect
  3. 輸入您的 Venice AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Llama 3.3 70B

    /models

Vercel AI Gateway

Vercel AI Gateway 允許您透過統一端點存取來自 OpenAI、Anthropic、Google、xAI 等提供商的模型。模型按原價提供,不額外加價。

  1. 前往 Vercel 儀表板,導覽到 AI Gateway 分頁,點擊 API keys 建立新的 API 金鑰。

  2. 執行 /connect 指令並搜尋 Vercel AI Gateway

    /connect
  3. 輸入您的 Vercel AI Gateway API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

您也可以透過 Vikasit Code 設定自訂模型。以下是指定提供商路由順序的範例。

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

一些常用的路由選項:

選項描述
order提供商嘗試順序
only限制為特定提供商
zeroDataRetention僅使用具有零資料留存策略的提供商

xAI

  1. 前往 xAI 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 xAI

    /connect
  3. 輸入您的 xAI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Grok Beta

    /models

Z.AI

  1. 前往 Z.AI API 控制台,建立帳號並點擊 Create a new API key

  2. 執行 /connect 指令並搜尋 Z.AI

    /connect

    如果您訂閱了 GLM Coding Plan,請選擇 Z.AI Coding Plan

  3. 輸入您的 Z.AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 GLM-4.7

    /models

ZenMux

  1. 前往 ZenMux 儀表板,點擊 Create API Key 並複製金鑰。

  2. 執行 /connect 指令並搜尋 ZenMux。

    /connect
  3. 輸入該提供商的 API 金鑰。

    ┌ API key
    └ enter
  4. 預設已預先載入了許多 ZenMux 模型,執行 /models 指令選擇您想要的模型。

    /models

    您也可以透過 Vikasit Code 設定新增更多模型。

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

自訂提供商

要新增 /connect 指令中未列出的任何 OpenAI 相容提供商:

  1. 執行 /connect 指令,向下捲動到 Other

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 輸入該提供商的唯一 ID。

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 輸入該提供商的 API 金鑰。

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in vikasit.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 在專案目錄中建立或更新 vikasit.json 檔案:

    vikasit.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    以下是設定選項說明:

    • npm:要使用的 AI SDK 套件,對於 OpenAI 相容的提供商使用 @ai-sdk/openai-compatible
    • name:在 UI 中顯示的名稱。
    • models:可用模型。
    • options.baseURL:API 端點 URL。
    • options.apiKey:可選,如果不使用 auth 認證,可直接設定 API 金鑰。
    • options.headers:可選,設定自訂請求標頭。

    更多進階選項請參見下面的範例。

  5. 執行 /models 指令,您自訂的提供商和模型將出現在選擇列表中。


範例

以下是設定 apiKeyheaders 和模型 limit 選項的範例。

vikasit.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

設定詳情:

  • apiKey:使用 env 變數語法設定,了解更多
  • headers:隨每個請求傳送的自訂請求標頭。
  • limit.context:模型接受的最大輸入 Token 數。
  • limit.output:模型可產生的最大 Token 數。

limit 欄位讓 Vikasit Code 了解您還剩餘多少上下文空間。標準提供商會自動從 models.dev 拉取這些資訊。


疑難排解

如果您在設定提供商時遇到問題,請檢查以下幾點:

  1. 檢查認證設定:執行 vikasit auth list 查看該提供商的憑證是否已新增到設定中。

    這不適用於 Amazon Bedrock 等依賴環境變數進行認證的提供商。

  2. 對於自訂提供商,請檢查 Vikasit Code 設定並確認:

    • /connect 指令中使用的提供商 ID 與 Vikasit Code 設定中的 ID 一致。
    • 使用了正確的 npm 套件。例如,Cerebras 應使用 @ai-sdk/cerebras。對於其他所有 OpenAI 相容的提供商,使用 @ai-sdk/openai-compatible
    • options.baseURL 欄位中的 API 端點位址正確。