article

【ローカルLLM】Qwen3をOllama + Open WebUIで動かす

3 min read

【ローカルLLM】Qwen3をOllama + Open WebUIで動かす

2025年4月末、Alibaba社が公開した大規模言語モデル「Qwen3」は、ローカル環境でも高性能な推論が可能となっています。本記事では、Qwen3-8BモデルをOllamaとOpen WebUIを用いてローカルで動作させる手順を解説します。


1. Ollamaのインストール

Ollamaは、ローカル環境で大規模言語モデルを簡単に実行・管理できるツールです。以下の手順でインストールします。

1.1 ダウンロードとインストール

  1. 公式サイト(https://ollama.com/download)から、使用しているOS(Windows、macOS、Linux)に対応したOllamaをダウンロードします。

  2. ダウンロードしたインストーラーを実行し、画面の指示に従ってインストールを完了させます。

  3. インストール後、ターミナル(またはコマンドプロンプト)を開き、以下のコマンドでOllamaが正しくインストールされたか確認します。

ollama --version

2. Qwen3-4Bモデルのダウンロード

Qwen3シリーズは、0.6Bから235Bまでのモデルサイズが用意されています。本記事では、8Bモデルを使用します。

参考: Qwen3: Think Deeper, Act Faster | Qwen

以下のコマンドを実行して qwen3:8b モデルをダウンロードします。PCにダウンロードされるモデルのサイズは約 5.5GB です。

ollama pull qwen3:8b

3. Open-WebUI のインストール

Open-WebUI のインストールは、uv コマンドを利用しました。

uv を使う場合

uv pip install open-webui

uv を使わない場合

pip install open-webui

4. Open-WebUI の起動

インストールが完了したら、Open-WebUI を起動します。

uv を使う場合

uv run open-webui serve

uv を使わない場合

open-webui serve

起動後、ブラウザで http://localhost:8080/ にアクセスします。

5. 管理者アカウントの作成とモデルの選択

初回アクセス時に管理者アカウントの作成が求められます。画面の指示に従い、メールアドレスとパスワードを入力してください。 ログイン後、画面左上に表示されるモデル選択ボックスから qwen3:8b を選択することで、 qwen3:8b モデルが利用可能になります。


以上が、Open-WebUI と ollama を用いて qwen3:8b を動かすための手順です。各手順を正しく実行すれば、手軽に qwen3:8b の動作環境を構築することができます。