vscodeにContinue拡張とOllamaを入れて、
LLMによる開発支援を試していたのですが、
どんなPromptなげてるか等、ちょっと気になったので、
mitmwebでreverseproxyして見てみました。
その手順をメモとして残しておきます。

mitmproxy
https://mitmproxy.org/

Continue
https://www.continue.dev/

Ollama
https://ollama.com/

vscode、OllamaとContinueはセットアップ済みとして、
以降の手順を示します。
# セットアップ手順は、上記のサイト参照。

構成

次のように、ContinueとOllamaの間に、mitmwebでreverse proxyで構成します。
# 括弧内はポート番号

reverse proxy導入前:
Continue -(11434)- Ollama

reverse proxy導入後:
Continue -(11434)- mitmweb -(21434)- Ollama

11434は既定のポート番号、
21434は適当に置いたポート番号なので、どのポート番号でもよいです。

手順

mitmproxyのインストール

次のページのとおり、mitmproxyをインストールします。

Installation | mitmproxy
https://docs.mitmproxy.org/stable/overview/installation/

macosでhomebrewを使っている場合は、以下のコマンドでOK。

brew install --cask mitmproxy

各プロセスの起動

次のコマンドで、ポート番号を指定してOllamaを起動します。
# 既にOllamaが動いている場合は先に停止しておきます。

OLLAMA_HOST=127.0.0.1:21434 ollama serve

次のコマンドで、mitmwebをreverse proxyとして起動します。

mitmweb --mode reverse:http://localhost:21434 --listen-port 11434

やりとりの確認

この状態で、vscodeからContinueを利用すれば、
mitmproxyのWeb Interfaceから、ContinueとOllamaのやりとりを確認することができます。

次のような画面になります。

mitmproxy01.jpg

このエントリで説明した方法を使うと、
MCPで連携した時など、仕組みを把握するのに、
具体的にどのような動きをしているかを終えると理解が早くなると思います。

以上。