mitmwebのreverseproxyでOllamaとContinueのやりとりを見る
vscodeにContinue拡張とOllamaを入れて、
LLMによる開発支援を試していたのですが、
どんなPromptなげてるか等、ちょっと気になったので、
mitmwebでreverseproxyして見てみました。
その手順をメモとして残しておきます。
mitmproxy
https://mitmproxy.org/
Continue
https://www.continue.dev/
Ollama
https://ollama.com/
vscode、OllamaとContinueはセットアップ済みとして、
以降の手順を示します。
# セットアップ手順は、上記のサイト参照。
構成
次のように、ContinueとOllamaの間に、mitmwebでreverse proxyで構成します。
# 括弧内はポート番号
reverse proxy導入前:
Continue -(11434)- Ollama
reverse proxy導入後:
Continue -(11434)- mitmweb -(21434)- Ollama
11434は既定のポート番号、
21434は適当に置いたポート番号なので、どのポート番号でもよいです。
手順
mitmproxyのインストール
次のページのとおり、mitmproxyをインストールします。
Installation | mitmproxy
https://docs.mitmproxy.org/stable/overview/installation/
macosでhomebrewを使っている場合は、以下のコマンドでOK。
brew install --cask mitmproxy
各プロセスの起動
次のコマンドで、ポート番号を指定してOllamaを起動します。
# 既にOllamaが動いている場合は先に停止しておきます。
OLLAMA_HOST=127.0.0.1:21434 ollama serve
次のコマンドで、mitmwebをreverse proxyとして起動します。
mitmweb --mode reverse:http://localhost:21434 --listen-port 11434
やりとりの確認
この状態で、vscodeからContinueを利用すれば、
mitmproxyのWeb Interfaceから、ContinueとOllamaのやりとりを確認することができます。
次のような画面になります。
このエントリで説明した方法を使うと、
MCPで連携した時など、仕組みを把握するのに、
具体的にどのような動きをしているかを終えると理解が早くなると思います。
以上。