Ollama + Open WebUI: Windows、Linux、または macOS で LLM をローカルに実行 (Docker 不要)
推定読書時間: 1 分
イントロダクション
このガイドでは、Dockerを必要とせずに、Windows、Linux、またはmacOS上でOllamaとOpen WebUIを使用して、大規模言語モデル(LLM)をローカルで簡単に設定して実行する方法を説明します。Ollamaはローカルモデル推論を提供し、Open WebUIはこれらのモデルとの対話を簡素化するユーザーインターフェースです。この体験は、ChatGPT、Google Gemini、Claude AIのインターフェースに似ています。
なぜDockerなしでOpen WebUIを実行するのか?
Dockerを使用せずにOpen WebUIを実行することで、コンピュータのリソースをより効率的に活用できます。コンテナ化された環境の制限がないため、利用可能なシステムメモリ、CPUパワー、およびストレージをすべてアプリケーションの実行に完全に活用することができます。これは、特にリソース集約型のモデルを扱う場合に、パフォーマンスが重要になる場面で役立ちます。
例えば、大規模言語モデルと対話するためにOpen WebUIを使用している場合、ネイティブ実行により処理時間が短縮され、パフォーマンスが向上します。Dockerがコンテナを管理するオーバーヘッドがないためです。ネイティブ実行することで、以下の利点も得られます。
- シンプルなセットアップ: Dockerコンテナの設定や管理の複雑さを回避できます。特に、より直接的なインストールを好むユーザーにとって有益です。
- パフォーマンスの向上: Dockerの仮想化がないため、システムリソースへのより直接的な接続が可能となり、アプリケーションのパフォーマンスが向上します。
- システムリソースへの直接アクセス: ファイルパス、設定、システム構成に直接アクセスできるため、トラブルシューティングやカスタマイズが簡単になります。
事前準備
開始する前に、システムに以下がインストールされていることを確認してください。
- Python: Open WebUIを実行するために必要です。
必ずPython 3.11.Xを使用してください。例えば、バージョン3.11.6がうまく機能します。最新バージョンのPython 3.12.7は、現在のOpen WebUIバージョンと互換性がありません。
Pythonはこちらからダウンロードできます。お使いのオペレーティングシステムに適したバージョンを選択してください。Pythonは、AIや機械学習、特に大規模言語モデル(LLM)の開発と運用に広く使用されている汎用プログラミング言語です。この分野でのスキルを伸ばしたい方は、効率的に学べるPythonフラッシュカードもチェックしてみてください。
Ollamaのインストール
- Ollamaのダウンロードページにアクセスします。
- プラットフォーム(Windows、Linux、またはmacOS)を選択し、適切なバージョンをダウンロードします。
- プラットフォームに適した通常のインストール手順に従って、Ollamaをインストールします。
Open WebUIのインストールと実行
Open WebUIをインストールするには、Pythonのパッケージマネージャーpipを使用します。以下の手順に従ってください。
ターミナルを開き、次のコマンドを実行してOpen WebUIをインストールします。
pip install open-webui
インストール後、次のコマンドを実行してpipを最新バージョンに更新します。
python.exe -m pip install --upgrade pip
Open WebUIをインストールした後、次のコマンドでサーバーを起動します。
open-webui serve
Open WebUIの起動に成功すると、ブラウザで次のアドレスにアクセスできます: http://localhost:8080
また、希望する場合は、GitHubからプロジェクトを直接クローンして、Open WebUIをインストールすることもできます。詳細は、このガイドの最後のセクションをご覧ください。
Ollamaの設定と言語モデルのダウンロード
デフォルトでは、Ollamaはシステム上の次のパスに言語モデル(LLM)を保存します。
- macOS:
~/.ollama/models
- Linux:
/usr/share/ollama/.ollama/models
- Windows:
C:\Users\%username%\.ollama\models
必要に応じてこのパスを変更できます。例えば、Windowsでは次のコマンドを使用します。
setx OLLAMA_MODELS "D:\ollama_models"
macOSでの環境変数の設定
macOSアプリケーションとしてOllamaを実行している場合、環境変数はlaunchctl
を使用して設定する必要があります。変数を設定するには、次のコマンドを使用します。
launchctl setenv OLLAMA_MODELS "/new/path/to/models"
変数を設定した後、変更を適用するためにOllamaアプリケーションを再起動します。
Linuxでの環境変数の設定
LinuxユーザーがOllamaをsystemdサービスとして実行している場合、systemctl
を使用して環境変数を設定できます。設定方法は次の通りです。
次のコマンドを実行して、サービス構成を開きます。
sudo systemctl edit ollama.service
[Service]セクションの下に、次の行を追加します。
Environment="OLLAMA_MODELS=/new/path/to/models"
ファイルを保存してから、systemdをリロードし、サービスを再起動します。
sudo systemctl daemon-reload
sudo systemctl restart ollama
Ollamaでの言語モデルのダウンロードと実行
Ollamaで言語モデルをダウンロードして実行するには、ターミナルで次のコマンドを使用します。これらのコマンドは、モデルがインストールされていない場合、自動的にダウンロードします。
Meta(Facebook)からLLaMA 3.1モデルをダウンロードして実行するには:
ollama run llama3.1
GoogleからGemma 2モデルをダウンロードして実行するには:
ollama run gemma2
Open WebUIの使用方法
Open WebUIが実行されている場合、ブラウザでhttp://localhost:8080にアクセスできます。このアドレスに移動すると、ログインまたは登録を求められます。新しいアカウントを作成するには、サインアップオプションを選択してください。このアカウントはローカルに作成され、他のユーザーがこのシステムであなたのデータにアクセスすることはできません。
Open WebUIを以前に起動しており、Ollamaを介してダウンロードされたモデルがリストに表示されない場合は、ページを更新して利用可能なモデルを更新してください。Open WebUIで管理されるすべてのデータは、デバイス上にローカルに保存されているため、モデルややり取りのプライバシーと管理が保証されます。
Gitを使用したOpen WebUIのインストール
GitHubからプロジェクトをクローンして手動で管理することによって、Open WebUIをインストールしたい場合は、以下の手順に従ってください。
前提条件:
- Git: システムにGitがインストールされていることを確認してください。こちらからダウンロードできます。
- Anaconda: Python環境を管理するためにAnacondaを使用することをお勧めします。こちらからAnacondaをダウンロードしてインストールできます。
インストール手順:
Linux/macOSの場合:
ターミナルを開き、リポジトリをクローンしたいディレクトリに移動します。
Gitを使用してOpen WebUIリポジトリをクローンします。
git clone https://github.com/open-webui/open-webui.git
プロジェクトディレクトリに移動します。
cd open-webui/
.envファイルをコピーします。
cp -RPp .env.example .env
Node.jsを使用してフロントエンドをビルドします。
npm install
npm run build
backend
ディレクトリに移動します。cd ./backend
(任意) Conda環境を作成してアクティブ化します。
conda create --name open-webui-env python=3.11
conda activate open-webui-env
Pythonの依存関係をインストールします。
pip install -r requirements.txt -U
アプリケーションを起動します。
bash start.sh
Windowsの場合:
ターミナルを開き、リポジトリをクローンしたいディレクトリに移動します。
Gitを使用してOpen WebUIリポジトリをクローンします。
git clone https://github.com/open-webui/open-webui.git
プロジェクトディレクトリに移動します。
cd open-webui
.envファイルをコピーします。
copy .env.example .env
Node.jsを使用してフロントエンドをビルドします。
npm install
npm run build
backendディレクトリに移動します。
cd .\backend
(任意) Conda環境を作成してアクティブ化します。
conda create --name open-webui-env python=3.11
conda activate open-webui-env
Pythonの依存関係をインストールします。
pip install -r requirements.txt -U
アプリケーションを起動します。
start_windows.bat
Ollama + Open WebUI サマリー
このガイドに従うことで、Dockerを使用せずに、OllamaとOpen WebUIをローカルで問題なく実行できるはずです。それでもエラーや問題が発生した場合は、コメントを残していただければ、できる限りサポートいたします。