【ローカルLLM】Qwen3をOllama + Open WebUIで動かす
2025年4月末、Alibaba社が公開した大規模言語モデル「Qwen3」は、ローカル環境でも高性能な推論が可能となっています。本記事では、Qwen3-8BモデルをOllamaとOpen WebUIを用いてローカルで動作させる手順を解説します。
1. Ollamaのインストール
Ollamaは、ローカル環境で大規模言語モデルを簡単に実行・管理できるツールです。以下の手順でインストールします。
1.1 ダウンロードとインストール
-
公式サイト(https://ollama.com/download)から、使用しているOS(Windows、macOS、Linux)に対応したOllamaをダウンロードします。
-
ダウンロードしたインストーラーを実行し、画面の指示に従ってインストールを完了させます。
-
インストール後、ターミナル(またはコマンドプロンプト)を開き、以下のコマンドでOllamaが正しくインストールされたか確認します。
ollama --version
2. Qwen3-4Bモデルのダウンロード
Qwen3シリーズは、0.6Bから235Bまでのモデルサイズが用意されています。本記事では、8Bモデルを使用します。
参考: Qwen3: Think Deeper, Act Faster | Qwen
以下のコマンドを実行して qwen3:8b モデルをダウンロードします。PCにダウンロードされるモデルのサイズは約 5.5GB です。
ollama pull qwen3:8b
3. Open-WebUI のインストール
Open-WebUI のインストールは、uv コマンドを利用しました。
uv を使う場合
uv pip install open-webui
uv を使わない場合
pip install open-webui
4. Open-WebUI の起動
インストールが完了したら、Open-WebUI を起動します。
uv を使う場合
uv run open-webui serve
uv を使わない場合
open-webui serve
起動後、ブラウザで http://localhost:8080/ にアクセスします。
5. 管理者アカウントの作成とモデルの選択
初回アクセス時に管理者アカウントの作成が求められます。画面の指示に従い、メールアドレスとパスワードを入力してください。
ログイン後、画面左上に表示されるモデル選択ボックスから qwen3:8b
を選択することで、 qwen3:8b モデルが利用可能になります。
以上が、Open-WebUI と ollama を用いて qwen3:8b を動かすための手順です。各手順を正しく実行すれば、手軽に qwen3:8b の動作環境を構築することができます。