VSCodeとOllamaでGithub Copilotをローカルで使うガイド

AIテキスト

はじめに:GitHub Copilotのbyok機能でOllamaとローカルで接続

Visual Studio Code(VSCode)のGitHub Copilot拡張機能には、byok(Bring Your Own Key)という仕組みがあり、外部のAIモデルやローカルLLMを利用できるようになっています。
この機能を使うことで、OllamaのローカルLLMをGitHub Copilotのチャット機能やコード補完で直接利用可能です。

なお、byokはMCP(Model Context Protocol)やOllamaのREST APIとは異なる仕組みです。MCPは複数のAIツールを統一的に扱う通信プロトコルで、過去にはMCPブリッジを使いOllamaを連携させる方法や、REST APIを使う拡張機能もありました。しかし現在では、GitHub CopilotのbyokによるOllama直接接続が最もシンプルで推奨される方法です。

byok(Bring Your Own Key)とは

「byok」とは “Bring Your Own Key” の略で、GitHub Copilot拡張機能が提供する仕組みです。
ユーザーが自分の環境で用意したAIモデルやローカルLLMをCopilotから利用できるようにする機能で、Ollama連携もこの仕組みを使って実現します。

設定は非常にシンプルで、Ollamaをデフォルト設定(http://localhost:11434)で起動していれば、追加設定なしで自動的に利用可能です。

補足:byokの設定変更が必要なケース

以下の場合は、VSCodeの設定でgithub.copilot.chat.byok.ollamaEndpointを指定します:

  • Ollamaのポート番号を変更している場合
  • 別のマシンで動作しているOllamaを利用する場合

設定例(settings.json):

{
  "github.copilot.chat.byok.ollamaEndpoint": "http://localhost:11434"
}

使い方:VSCodeでOllamaを利用する手順

ここでは、Ollama、VSCode、Github Copilotについては利用経験があり、インストールは完了しているものとして説明します。またOllamaではコーディング支援に適したモデルを予め準備しておくと便利です。

バックグラウンドでOllamaを起動します。デフォルトではhttp://localhost:11434で待機となります。

    $ ollama serve

    VSCodeを起動し、チャット欄を開きます。チャット欄下のモデル名をクリックします。

    モデルの一覧表示から「モデルの管理」をクリックします。

    コマンドパレットに一覧が出るので、一覧から「Ollama」を選択します。

    Ollamaに予め導入済みのモデルが表示されるので、使いたいモデルをチェックしOKを押します。

    VSCodeのチャットパネルまたはコード補完でOllamaモデルを選択して利用となります。

      これだけで、ローカルのOllamaモデルがGitHub Copilotから利用可能になります。

      関連情報:Continue拡張機能について

      GitHub Copilotのbyok機能以外にも、VSCodeでOllamaを利用するための拡張機能として「Continue」があります。

      ContinueはOllamaとのローカルHTTP通信(REST API)を利用し、リポジトリ文脈の自動注入や差分適用、プロンプトテンプレートなどの機能を提供します。GitHub Copilotを使わない場合の選択肢として検討できます。

      詳細は下記の記事や、公式ページ(https://continue.dev)をご参照ください。

      参考:MCPブリッジを使う方法(非推奨)

      過去には、OllamaのHTTP APIをMCP(Model Context Protocol)サーバー仕様に変換するNode.js製ツール「@rawveg/ollama-mcp」や「@etnlbck/ollama-mcp」を使う方法もありました。

      (参考)MCPブリッジ手法(旧来)

      名称公式リンク現状メモ
      @rawveg/ollama-mcpGitHub リポジトリ参考(旧来の暫定手法)Ollama の REST を MCP 風に橋渡し。VS Code の最新環境では byok 直結が推奨
      @etnlbck/ollama-mcpMCPディレクトリ掲載参考(更新停滞の報告あり)実装の整合性や保守状況に注意。一般ユーザーには推奨しにくい。

      MCPは複数のAIモデルやツールを統一的に扱うための通信プロトコルですが、OllamaはMCP非対応のため、ブリッジツールが必要でした。
      しかし現在では、GitHub CopilotのbyokによるOllama直接接続が最もシンプルで推奨される方法です。

      MCPブリッジの設定例(参考)

      VSCodeのプロジェクト直下に .vscode/mcp.json を作成し、以下を記述:

      {
        "servers": {
          "ollama": {
            "command": "npx",
            "args": ["-y", "@rawveg/ollama-mcp"],
            "env": {
              "OLLAMA_API": "http://localhost:11434"
            }
          }
        }
      }

      この方法は現在では非推奨ですが、MCPプロトコルの理解や、将来的にOllamaが公式MCP対応した際の参考として知っておくと役立つかもしれません。

      まとめ

      GitHub Copilotのbyok機能を使えば、VSCodeとOllamaのローカルLLMを簡単に連携できます。
      デフォルト設定(http://localhost:11434)であれば追加設定は不要で、すぐに利用可能です。

      過去にはMCPブリッジを使う方法もありましたが、現在ではbyokによる直接接続が最もシンプルで推奨される方法となっています。

      ぜひ本ガイドを参考に、ローカルAI開発環境を構築してください。

      タイトルとURLをコピーしました