AI総合研究所

SHARE

X(twiiter)にポストFacebookに投稿はてなブックマークに登録URLをコピー

ChatGPTをローカル利用できる!Chatbot UIの構築方法を徹底解説

この記事のポイント

  • Chatbot UIで「ローカルUI + クラウドAPI」「完全ローカルLLM」の2パターンを整理
  • Chatbot UIの導入手順(ローカル起動)と、環境変数・運用上の注意点を解説
  • 会話履歴の管理、検索、テンプレートなど、業務で効く基本機能を紹介
  • 料金はChatbot UIではなく、主に利用するモデル/APIで決まる点を分かりやすく整理
坂本 将磨

監修者プロフィール

坂本 将磨

XでフォローフォローするMicrosoftMVP

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。

「ChatGPTをローカル環境で使いたい」「社内データを外に出さずに生成AIを試したい」と考えても、いきなりモデル運用や環境構築までやり切るのは大変です。

そこで本記事では、ChatGPT風の操作感をローカルで実現できるオープンソースのUIである「Chatbot UI」を軸に、現実的な導入パターンを整理します。

具体的には、クラウドのAPIを使って高品質な回答を得る方法と、OllamaやLM Studioなどを使ってローカルLLMを動かす方法の両方を扱います。費用の考え方や注意点も含めて、企業利用の判断に必要なポイントをまとめました。

ChatGPTの新料金プラン「ChatGPT Go」については、以下の記事をご覧ください。
ChatGPT Goとは?料金や機能、広告の仕様、Plus版との違いを解説

✅最新モデル「GPT-5.4」については、以下の記事をご覧ください。
GPT-5.4(ChatGPT5.4)とは?使い方や料金、GPT-5.2との違いを徹底解説

ChatGPTをローカル環境で利用する方法

ローカル環境とは?基本的な理解

ローカル環境とは、インターネット上のクラウドサーバーではなく、自分のパソコンや自社サーバー内でソフトウェアを動かす環境のことです。

生成AIで「ローカル」と言うと、次の2つが混同されやすいので、最初に切り分けておきます。

  • ローカルで動くのがUIだけ
    ブラウザやデスクトップの画面は手元で動くものの、回答を作る処理はクラウドAPIに投げる方式です。Chatbot UIはこの使い方が代表例です。

  • 推論まで完全にローカル
    モデル自体をローカルに置き、オフラインでも動かす方式です。OllamaやLM StudioなどでローカルLLMを動かします。

前者は導入が容易でモデル品質も高くしやすい一方、入力データは外部に送信されます。後者はデータを外部に出さずに済む一方、モデル選定やマシンスペック、運用設計の難易度が上がります。

ChatGPTの完全ローカル利用を検討するときの注意点

ChatGPTはクラウド上のサービスなので、一般的に「ChatGPTそのものをオフラインで動かす」という意味では使えません。

一方で、2026年時点では、OpenAIのオープンウェイトモデルをローカル環境で動かす選択肢も登場しています。たとえば、LM StudioでOpenAIのオープンウェイトモデルを実行する手順が公式に紹介されています。

ここで重要なのは、「ChatGPTをローカルにしたい」という目的を次のように言い換えることです。

  • ローカルでChatGPT風の操作感がほしいのか
  • 入力データを外部に出したくないのか
  • 品質を優先したいのか、コストを優先したいのか

この整理ができると、導入パターンの選定が一気に楽になります。

本記事で紹介する2つのアプローチ

本記事では、次の2パターンを比較しながら解説します。

  1. Chatbot UI + クラウドAPI
    ローカルでUIを動かし、OpenAIなどのAPIで高品質な回答を得る方法です。API利用時のデータ取り扱いは必ず公式ポリシーを確認してください。

  2. Chatbot UI + ローカルLLM
    OllamaなどでローカルLLMを動かし、ChatGPT風のUIで使う方法です。完全オフライン運用を目指す場合の選択肢になります。


ChatbotUIとは

Chatbot UIは、ChatGPTに近い操作感を目指したオープンソースのチャットUIです。

企業利用でよくある「UIは使いやすいが、社内ポリシー上そのままChatGPTのWeb版は使いづらい」といった状況で、運用の落としどころを作りやすいのが特徴です。

Chatbot UIでできることと特徴

Chatbot UIでできることを、業務で効く観点に絞って整理します。

  • 会話の管理
    会話履歴の整理や検索など、チーム・業務での再利用を意識した導線を作れます。

  • プロンプトの再利用
    よく使う指示をテンプレート化し、属人化を減らしやすくなります。

  • モデルの切り替え
    利用するモデルを切り替え、品質・コスト・機密性のバランスを取りやすくなります。

Chatbot UIが向くケース・向かないケース

導入前に、向き不向きを確認しましょう。

  • 向くケース
    既存のチャットUIだけでは運用しづらく、履歴管理やテンプレートで業務化したい場合に向きます。

  • 向かないケース
    クリックだけで完結するSaaSを求める場合や、管理者が環境・認証・データ保護を設計できない場合は、別の選択肢が合うことがあります。

Chatbot UIのメリットと注意点

最後に、導入判断に直結するポイントをまとめます。

  • メリット
    ローカルでUIを運用しつつ、クラウドAPIやローカルLLMを切り替えて使えるため、運用の自由度が高い点です。

  • 注意点
    クラウドAPIを使う場合、入力データは外部に送信されます。OpenAI APIのデータ取り扱いは公式ポリシーを必ず確認し、社内規程に合わせたルール(入力禁止情報、ログ保管、権限管理など)を整備してください。

社内要件でAzure OpenAIの利用を検討している場合は、以下の記事も参考になります。

【関連記事】
Azure OpenAI ServicesとChatGPT APIの違いを徹底比較!


ChatBOT UIの導入方法

ここでは、公式手順をベースに「ローカルでChatbot UIを起動する」流れを紹介します。環境差分が出やすいので、最終的には公式リポジトリも参照してください。

事前準備

導入前に、次の準備を済ませておくとスムーズです。

  • Docker Desktopの準備
    Supabaseのローカル起動でDockerを使うため、Docker Desktopをインストールします。

  • Node.jsの準備
    互換性のあるNode.jsを用意します。

  • OpenAI APIキーの準備(クラウドAPIを使う場合)
    APIキーの発行手順は以下の記事も参考にしてください。

【関連記事】
ChatGPT(OpenAI)のAPIキー発行・取得手順を解説!支払い方法も

具体的な導入手順

  1. Docker Desktopをインストールします。


導入手順1
導入手順1


導入手順2
導入手順2


導入手順3
導入手順3

  1. リポジトリを取得して依存関係をインストールします。
git clone https://github.com/mckaywrigley/chatbot-ui.git
cd chatbot-ui
npm install
  1. Supabaseをインストールして起動します。

macOSの場合は、Supabaseのインストール手段としてHomebrewがよく使われます。

brew install supabase/tap/supabase
supabase start
  1. Chatbot UIを起動します。
npm run chat

起動できると、ブラウザでローカルのChatbot UIにアクセスできるようになります。


エラー例
エラー例


ChatBOT UIの使い方と基本操作

導入できたら、まずは業務で効く基本操作から押さえます。ここを押さえるだけでも「使い捨てのチャット」から「ナレッジとして蓄積できるチャット」に近づきます。

プロジェクトとしての使い方と運用の考え方

Chatbot UIは、単にチャットするだけでなく、会話履歴やテンプレートを使って業務に落とし込むのがポイントです。

たとえば、次のように用途ごとに運用ルールを決めておくと、チーム利用でも混乱しにくくなります。

  • 入力してよい情報・ダメな情報を決める
    個人情報や契約情報など、外部送信できない情報を明確にします。

  • テンプレートを用意する
    議事録要約、社内FAQ、文章校正など、よくあるタスクはテンプレート化します。

会話履歴のインポート/エクスポート

会話履歴をエクスポートできると、バックアップや環境移行がしやすくなります。


english


conversation1

プロンプトのテンプレートを保存する

よく使う指示をテンプレートとして保存しておくと、毎回の入力が短くなり、品質も安定します。

具体的には、次のようなテンプレートが作りやすいです。

  • 議事録を要点・ToDo・決定事項に分けて要約する
  • 社内ルールに沿って文章を校正する
  • 仕様書の観点漏れをチェックする

過去の会話履歴の検索と分類

会話履歴をキーワードで検索したり、用途別に整理したりできると、過去の知見を再利用しやすくなります。

特に、同じ種類の質問が繰り返されるチームでは、テンプレートと履歴検索の組み合わせが効いてきます。

terminal

AI駆動開発


Chatbot UIで使う完全ローカルLLMの活用

クラウドAPIを使わず、完全にローカルで推論したい場合は、ローカルLLMを使う構成を検討します。

この方式は「入力データを外部に送れない」など要件が強い場合に有力ですが、モデル更新や運用も含めて自社側で設計する必要があります。

ローカルLLMとは?

ローカルLLMとは、モデルをローカルに置き、手元のマシン上で推論を実行する方式です。インターネット接続が不要になり、入力データを外部に送信しない運用がしやすくなります。

ローカルLLMの全体像や導入パターンは、以下の記事も参考になります。

【関連記事】
ローカルLLMとは?メリットやおすすめモデル、導入方法を解説

ローカルLLMの実行環境

代表的な実行環境として、OllamaとLM Studioがあります。

  • Ollama
    ローカルLLMをコマンド中心で扱える環境です。Chatbot UI側は、OllamaのURLを指定して連携できます。

  • LM Studio
    ローカルLLMをGUI中心で扱える環境です。ローカルでモデルを動かす際の入門として選びやすい選択肢です。

【関連記事】
LM Studioとは?主要機能や使い方、商用利用について徹底解説

ローカルLLMとChatbot UIの連携

Chatbot UIでOllamaを使う場合は、環境変数としてOllamaのURLを設定します。デフォルトのURLは次の通りです。

NEXT_PUBLIC_OLLAMA_URL=http://localhost:11434

社内ネットワークで別ホストにOllamaを立てる場合は、このURLを社内アドレスに変更します。

ローカルLLMのメリットとデメリット

最後に、完全ローカル運用の判断材料をまとめます。

  • メリット
    入力データを外部に送信しない設計にしやすく、ネットワーク分離環境でも運用しやすい点です。

  • デメリット
    モデルサイズや設定で必要なマシンスペックが大きく変わります。また、モデル更新・脆弱性対応・ログ保管などを含めた運用設計が必要になります。


Chatbot UIの料金とOpenAI API利用料金の考え方

Chatbot UI自体はオープンソースなので、基本的に「UIの利用料」は発生しません。

料金が発生するかどうか、どこにコストが乗るかは「クラウドAPIで推論するか」「ローカルLLMで推論するか」で大きく変わります。

料金体系の構成要素

Chatbot UIを業務で使うときは、次の3層で分けて考えると見積もりが崩れにくくなります。

  • 推論コスト(モデル側)
    クラウドAPIなら従量課金が中心です。ローカルLLMならモデル利用料は不要でも、ハードウェアや運用のコストが別で発生します。

  • 運用コスト(環境・保守)
    バージョンアップ対応、脆弱性対応、バックアップ、監査ログなど、チーム利用ほど無視しにくくなります。

  • 組織コスト(ルール整備)
    入力禁止情報、権限管理、持ち出し制限などを定義しないと、コスト以前に使えなくなるケースがあります。

価格例と見積りの作り方

クラウドAPIを使う場合、見積りは「利用量」を先に作るのが現実的です。たとえば、次のように利用シーンから逆算します。

  • 想定ユーザー数(部署単位か、全社か)
  • 1人あたりの1日あたりの利用回数(質問回数)
  • 1回あたりの入力量(資料貼り付けの有無、長文かどうか)
  • 1回あたりの出力量(要約なのか、文章生成なのか)
  • 長文入力が発生する用途の割合(会議録要約、規程チェックなど)

この利用量が決まると、あとは「モデルごとの単価」に当てはめれば月額の目安が出ます。単価は必ず公式の料金表で確認してください。

OpenAI API Pricing(公式)

ローカルLLMの場合は、API従量課金の代わりに「マシンの購入費や償却」「電力」「運用工数」が主な見積り対象になります。特に、複数人利用や長期運用では、運用工数がボトルネックになりやすい点に注意が必要です。

価格注記

  • APIの料金やモデルの提供状況は変わる可能性があるため、本記事では特定の金額を断定しません。必ず公式情報を参照してください。

  • 見積りは「平均」だけで作ると外れやすいです。長文入力が集中する用途(RAGの検証、規程レビューなど)がある場合は、別枠で利用量を見積もると現実に近づきます。

読み解き:コストを下げる現実的な打ち手

Chatbot UIでコストを下げるには、モデルを変える前に「使い方」を整える方が効くことが多いです。

  • 用途を2〜3類型に分ける
    文章校正・要約・アイデア出しなど、用途で期待値を揃えると、必要以上に高価なモデルを使い続けずに済みます。

  • テンプレートで入力を短くする
    指示が長くなりがちな業務ほど、テンプレート化で入力を圧縮できます。

  • 長文貼り付けのルールを作る
    長文入力はコストに直結しやすいため、貼り付ける範囲や要約の手順を決めておくとブレが減ります。

モデル選びの考え方を押さえたい場合は、以下の記事も参考になります。

【関連記事】
ChatGPTのモデルとは?OpenAIの最新モデル一覧と特徴をわかりやすく解説【2025年最新版】

AI導入でお悩みの方へ

AI総合研究所サービス紹介

AI総合研究所が最適なAI選定をサポート

どのAIツールを選べばいいかわからない、導入コストが心配など、AI導入に関するあらゆるお悩みを専門家が解決します。


まとめ:Chatbot UIでローカル運用する要点

本記事では、Chatbot UIを軸に、ローカル環境での生成AI活用を現実的に進めるための考え方と導入手順を整理しました。

記事のポイント

  • まずは目的の言い換えから始める
    「ChatGPTをローカルにしたい」を、UIだけローカルにするのか、推論までローカルにするのかに分解すると選びやすくなります。

  • クラウドAPIは品質と引き換えに外部送信が発生する
    ポリシー確認と社内ルール整備が前提になります。

  • 完全ローカルは運用設計が必要
    ネットワーク分離や機密性の要件が強い場合に有力ですが、モデル更新や運用が課題になります。

どちらを選ぶべきか?

  • Chatbot UI + クラウドAPIが向くケース
    導入スピードと回答品質を重視し、社内規程の範囲で外部送信が許容できる場合です。

  • Chatbot UI + ローカルLLMが向くケース
    入力データを外部に出せない要件が強く、運用を自社で設計できる場合です。

最終的に

迷ったら、まずは小さく試して、運用上の課題(入力ルール、コスト、ログ、権限)を洗い出すのがおすすめです。そこから、必要に応じてローカルLLMへ寄せるか、クラウドAPIを使い続けるかを判断すると失敗しにくくなります。

AI総合研究所に相談する

監修者
坂本 将磨

坂本 将磨

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。

関連記事

AI導入の最初の窓口

お悩み・課題に合わせて活用方法をご案内いたします
お気軽にお問合せください

AI総合研究所 Bottom banner

ご相談
お問い合わせは
こちら!