298文字
1分
編集

Copilot CLI、BYOK とローカルモデル対応

GitHub Copilot CLI が BYOK(Bring Your Own Key)とローカルモデルに対応した。GitHub がホストするモデルルーティングを介さずに、利用者が指定したプロバイダへ直接接続して、同じエージェント的なターミナル体験を維持できる。

  • Azure OpenAI、Anthropic、OpenAI Chat Completions API 互換のエンドポイントに接続できる。ローカル実行の例として Ollama、vLLM、Foundry Local も挙げられている。
  • COPILOT_OFFLINE=true でオフラインモードを有効化できる。オフラインモードでは GitHub のサーバーへ接続せず、テレメトリも無効化され、設定したプロバイダとのみ通信する。
  • BYOK 利用時は GitHub 認証が必須ではなくなった。一方で、/delegate、GitHub Code Search、GitHub MCP server など GitHub 側の機能は GitHub 認証が必要で、BYOK と GitHub 認証を併用すると両方を使える。
  • モデル側は tool calling と streaming をサポートする必要があり、コンテキスト長は 128k トークン以上が推奨されている。

環境変数でプロバイダとモデルを設定して起動する。

bash
export COPILOT_PROVIDER_BASE_URL="https://example.com/v1"
export COPILOT_PROVIDER_TYPE="openai" # openai | azure | anthropic
export COPILOT_PROVIDER_API_KEY="..."
export COPILOT_MODEL="YOUR-MODEL-ID"
copilot

設定の雛形は copilot help providers でも確認できる。

#参考文献