NanobrowserとローカルLLMでブラウザを操作する

Nanobrowserは、オープンソースのAIウェブエージェントであり、完全に無料で利用することが出来ます。 また好きなLLMプロバイダと接続することができ、Nanobrowser自体の動作は全てローカルブラウザ内で行われます。

Nanobrowserのインストール#

Nanobrowserは、Chrome拡張で提供されており、サポートされているブラウザはChromeとEdgeのみです。 次のURLからインストールできます。

Nanobrowser Chrome Web Store page

評価が若干低いなと思いましたが、 低評価の理由を見るとサポート対象外のブラウザ(ArcやOpera)で利用しているユーザーによるものでした。

NanobrowserにLLMを接続する#

Chrome拡張のアイコンをクリックして開くサイドバーの設定アイコンをクリックすると次の設定画面が開きます。 Add New Providerをクリックして設定することで利用できるようになります。

Nanobrowserの設定画面

プロバイダーを設定した後に、少しスクロールして「Model Selection」の項目でPlanner/Navigator/Validatorで利用するモデルの選択も必要です。

NanobrowserにOllamaを接続する#

Add New ProviderをクリックしてOllamaを選択します。設定を変更する必要はほとんどないはずです。 利用したいモデルがなければ、追加してください。

Ollamaの設定画面

記載されている通りOLLAMA_ORIGINの設定が必要です。 設定した後に、ローカルで起動させているOllamaを立ち上げ直す必要がある点には注意してください。

ollama serveをターミナルで実行して次のようなエラーが出る場合はプロセスが生きています。

Terminal window
$ ollama serve
Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.