この記事のポイント
ローカル環境でChatGPT類似の体験を提供するChatBOT UIの導入と機能を紹介
データ保護を優先し、セキュリティやプライバシーを考慮したChatBOT UIの特徴に注目
ChatBOT UIのフォルダ分け、検索、プロンプトテンプレート保存など便利な機能を解説
Dockerの導入からAPIキー取得、インストール手順を画像付きで詳細に説明

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。
「ChatGPTをローカル環境で利用したい」「試してみたいけど環境構築が難しそう」とお考えの方も多いのではないでしょうか。
本記事では、OpenAIのAPIを利用し、データ保護を重視しながらChatGPTに類似した体験を提供する「ChatBOT UI」の導入手順や機能についてわかりやすく解説しています。
さらに、ChatBOT UIを用いて利用できるオープンソースのLLMについてもご紹介。
個々の導入から基本操作、応用までを丁寧に説明するので、ローカル環境でのChatGPT利用を検討されている方は、この機会にぜひご一読ください。
ChatGPTの新料金プラン「ChatGPT Go」については、以下の記事をご覧ください。
ChatGPT Goとは?料金や機能、広告の仕様、Plus版との違いを解説
目次
ChatGPTをローカル環境で利用する方法
ローカル環境とは?基本的な理解
ローカル環境とは、インターネット上のクラウドサーバーではなく、自分のパソコン(PC)や自社のサーバー内で直接ソフトウェアを動かす環境のことを指します。
通常のChatGPTは、OpenAIの運営するクラウドサーバー上で動作しています。ユーザーが入力したメッセージは、インターネットを通じてOpenAIのサーバーに送信され、そこで処理された後、結果が返ってきます。
一方、ローカル環境でChatGPTや類似のAIを動かす場合は、あなたのパソコンの中だけで処理が完結します。これにより、機密情報や個人データをインターネット上に送信することなく、AIを活用できるメリットがあります。
ChatGPTの完全ローカル利用の現状
2025年10月現在、OpenAIのポリシーの関係上、ChatGPTを完全なローカル環境で使用するということは難しい状況です。OpenAIは自社のGPTモデルをローカルでダウンロード・実行できる形式では提供していません。
しかし、データ保護やプライバシーの観点から、「ChatGPTをローカル環境で利用したい」というニーズは企業を中心に高まっています。
ChatGPTの登場以降、ローカル環境で利用できるLLM(大規模言語モデル)は多数発表されていますが、要求されるスペックのハードルが非常に高いものが多いのが実情です。
本記事で紹介する2つのアプローチ
そこで今回は、2つのアプローチでローカル環境でのAI活用方法を紹介します:
1. Chatbot UI + OpenAI API(推奨)
OpenAIのAPIを利用して、ローカル環境のインターフェースでChatGPTを利用できる「Chatbot UI」について紹介します。これは完全オフラインではありませんが、データはOpenAIの学習には使用されず、プライバシーが保護されます。
2. 完全ローカルLLM
Chatbot UIはAPIだけでなく、LlamaやMistralといったオープンソースLLMを完全ローカル環境で利用することも可能です。「完全にオフラインで使いたい」「色々なモデルを触ってみたい」という方にもおすすめです。
それぞれのメリット・デメリットと導入方法を詳しく解説していきます。
ChatbotUIとは
Chatbot UIとは、ChatGPTのクローンの様なUIを体感できるオープンソースのツールです。
Chatbot UI overhaul drops next week.
— Mckay Wrigley (@mckaywrigley) December 22, 2023
It’s honestly really, really good.
Powerful & polished.
And as always, 100% open-source. pic.twitter.com/enLG83iTNe
ChatGPTのWebUIには無い機能として、会話履歴のフォルダ分けやキーワードによる検索、さらにはよく使うプロンプトをテンプレートとして保存するといった機能があります。
また、ChatGPTの利用においては、入力データが言語モデルの学習に利用されてしまいますが、API経由の場合はデータの収集が行われません。
つまり、Chatbot UIはAPI経由でGPTを利用するので、ChatGPTの様な操作感を保ちつつ、データが保護された環境で利用できるのです。
ChatbotUIのメリットとデメリット
Chatbot UIを使ってChatGPTをローカル環境で利用するメリットは、データのプライバシーとセキュリティが確保できる点です。
機密情報を扱う企業や、個人情報の取り扱いに注意が必要な場合に特に有用でしょう。
一方、デメリットとしては、ローカル環境でのリソース消費が大きい点が挙げられます。
また、インターネット接続が必要なため、完全にオフラインで使用することはできません。
ChatBOT UIの導入方法
Chatbot UIの導入には、DockerとOpenAIのAPIキーが必要です。
以下に、導入手順を画像付きで詳しく解説します。
【事前準備】
- 環境構築にはDockerを利用するので、こちらのDockerのリンクからダウンロードしてください。
- Chatbot UIの利用にはOpenAIのAPIキーが必要です。事前にAPIキーの用意をしましょう。取得手順については下記の記事をご覧ください。
【関連記事】
➡️ChatGPT(OpenAI)のAPIキー発行・取得手順を解説!支払い方法も
具体的な導入手順
- 先のリンクから自分の環境に合わせてダウンロードしたDocker Desktop Installerを起動すると、パソコンが再起動した後に下記の画面が表示されるので「Accept」をクリックします。

導入手順1
- すると、このような画面になるのでどちらかを選んで「Finish」をクリックします。

導入手順2
- アカウントを持っている場合は「Sign in」、持っていない場合は「Sign up」でアカウントを作成しましょう。

導入手順3
4.dockerの利用準備を終えたので、以下のコードでChatbot UIのリポジトリをクローンします。
git clone https://github.com/mckaywrigley/chatbot-ui.git
5.下記コードを順に用いてChatbot UIのフォルダを開き、Dockerでコンテナをビルドします。
cd chatbot-ui
docker build -t chatgpt-ui .
「ERROR: failed to solve: failed to read dockerfile: open Dockerfile: no such file or directory」
というエラーが出てきた場合は、クローンしたChatbot UIのフォルダを開き「Dockerfile」というファイルを作った後に、下のようなDockerイメージの構築手順を記述することで改善されました。

エラー例
# ベースイメージの指定
FROM ubuntu:latest
# 作業ディレクトリの指定
WORKDIR /app
# ファイルの追加
COPY . /app
# コマンドの実行
RUN apt-get update && apt-get install -y \
python3 \
python3-pip
# ポートの公開
EXPOSE 80
# コンテナ起動時に実行されるコマンドの指定
CMD ["python3", "app.py"]
6.これでChatbot UIの起動が完了します。
ChatBOT UIの使い方(基本操作)
今回はGitHub より、以下のdocker composeを使用します
主な特長
- プライバシー管理: 統計レポートがないため、プライバシーはユーザーの手に渡ります。
- 速度: クライアントは高速パフォーマンスを実現するために最適化されています。
- カスタマイズ: ユーザーはカスタム データ ソースとデータ タイプを追加できます。
- 互換性: ChatGPT の公式機能相互作用と一致します。
version: '3'
services:
chatgpt-client:
image: soulteary/chatgpt
restart: always
ports:
- 8090:8090
environment:
APP_PORT: 8090
APP_HOSTNAME: "http://localhost:8090"
APP_UPSTREAM: "http://sparrow:8091"
sparrow:
image: soulteary/sparrow
restart: always
environment:
WEB_CLIENT_HOSTNAME: "http://localhost:8090"
ENABLE_OPENAI_API: "on"
OPENAI_API_KEY: "sk-********"
logging:
driver: "json-file"
options:
max-size: "10m"
上記のDocker Composeファイルを使用することで、ChatBOT UIとそのバックエンドサービスであるSparrowを簡単にセットアップできます。
ChatBOT UIはローカルホストのポート8090でアクセス可能で、OpenAI APIキーを設定することでChatGPTの機能を利用できます。

会話履歴のインポート/エクスポート
ChatBOT UIでは、会話履歴をJSON形式でインポートおよびエクスポートすることができます。
これにより、別のデバイスやアプリケーションとの間で会話データを移行したり、バックアップを取ったりすることが可能です。


プロンプトのテンプレートを保存する
よく使うプロンプトをテンプレートとして保存しておくことで、効率的にチャットボットとのやり取りを行うことができます。
テンプレートは、カテゴリー別に管理することも可能です。
過去の会話履歴の検索都分類
ChatBOT UIでは、過去の会話履歴をキーワードで検索したり、カテゴリー別に分類したりすることができます。これにより、必要な情報を素早く見つけ出すことが可能です。
以上のように、ChatBOT UIは、ChatGPTの基本的な機能に加えて、会話履歴の管理やプロンプトのテンプレート化など、ユーザーの利便性を高める様々な機能を提供しています。
これらの機能を活用することで、より効率的かつ効果的にチャットボットを利用することができるでしょう。
完全ローカルLLMの活用
ChatBOT UIとOpenAI APIの組み合わせ以外に、**完全にローカル環境で動作するオープンソースのLLM(大規模言語モデル)**を利用する方法もあります。
この方法では、インターネット接続が一切不要で、完全にオフライン環境でAIを活用できます。
ローカルLLMとは?
ローカルLLM(Local Large Language Model)とは、自分のパソコンや自社サーバー内に直接ダウンロード・インストールして動かせる大規模言語モデルのことです。
ChatGPTのようにクラウド経由でアクセスするのではなく、モデル自体をローカルに保存し、すべての処理を自分のマシン上で実行します。
主要なローカルLLM
2025年現在、以下のようなオープンソースのローカルLLMが利用可能です:
1. Llama 3.1 / Llama 3.2(Meta社)
- 特徴: Meta(旧Facebook)が開発した高性能オープンソースLLM
- モデルサイズ: 8B、70B、405Bパラメータ(数字が大きいほど高性能だが必要スペックも高い)
- 推奨環境:
- Llama 3.2 8B: 最低16GB RAM、推奨32GB RAM
- Llama 3.1 70B: 最低64GB RAM、GPU推奨
- 強み: 多言語対応が優れており、日本語での精度も高い
2. Mistral 7B / Mixtral 8x7B(Mistral AI)
- 特徴: フランスのMistral AIが開発した効率的なモデル
- モデルサイズ: 7B、8x7B(Mixture of Experts構造)
- 推奨環境:
- Mistral 7B: 最低16GB RAM
- Mixtral 8x7B: 最低32GB RAM、GPU推奨
- 強み: 小さいサイズで高い性能を発揮、コスパが良い
3. Qwen 2.5(Alibaba Cloud)
- 特徴: Alibabaが開発した多言語対応モデル
- モデルサイズ: 0.5B〜72Bまで幅広いラインナップ
- 推奨環境: モデルサイズにより異なる
- 強み: 中国語・英語に強く、軽量版から大規模版まで選べる
4. Gemma 2(Google)
- 特徴: GoogleのGeminiファミリーのオープンソース版
- モデルサイズ: 2B、9B、27B
- 推奨環境:
- Gemma 2 2B: 最低8GB RAM(スマホやタブレットでも動作可能)
- Gemma 2 27B: 最低32GB RAM
- 強み: 小型モデルでも高品質、モバイルデバイスでも利用可能
ローカルLLMの実行環境
ローカルLLMを動かすための主要なツールをご紹介します:
Ollama(最も簡単)
Ollamaは、ローカルLLMを最も簡単に使えるツールとして人気です。
特徴:
- ワンコマンドでモデルのダウンロード・実行が可能
- Windows、macOS、Linux対応
- ChatGPT風のコマンドライン・Web UIで利用可能
- Chatbot UIとも連携可能
導入手順:
# 1. Ollamaのインストール(macOS/Linux)
curl -fsSL https://ollama.ai/install.sh | sh
# 2. モデルのダウンロードと実行(例: Llama 3.2 8B)
ollama run llama3.2
# 3. 日本語に強いモデルを使う場合
ollama run qwen2.5:7b
Windowsの場合:
- Ollama公式サイトからインストーラーをダウンロード
- インストーラーを実行
- コマンドプロンプトまたはPowerShellで
ollama run llama3.2を実行
LM Studio
LM Studioは、GUI(グラフィカル・ユーザー・インターフェース)で使えるローカルLLMツールです。
特徴:
- ノーコードでGUI操作のみで利用可能
- Hugging Faceから直接モデルを検索・ダウンロード
- ChatGPT風のチャット画面
- ローカルAPIサーバーとしても機能
おすすめユーザー: コマンドラインが苦手な方、視覚的に操作したい方
Text generation web UI(Oobabooga)
Text generation web UIは、高度なカスタマイズが可能なWebベースのインターフェースです。
特徴:
- ブラウザ上で動作するチャットUI
- モデルの細かいパラメータ調整が可能
- プラグイン拡張機能
- キャラクターチャット、ロールプレイ対応
おすすめユーザー: 技術者、細かい設定を調整したい上級者
ローカルLLMとChatbot UIの連携
Chatbot UIは、OpenAI APIだけでなく、OllamaなどのローカルLLMとも連携できます。
連携手順:
- Ollamaでモデルを起動(APIモードで実行)
# Ollamaをバックグラウンドで起動
ollama serve
# 別のターミナルでモデルを起動
ollama run llama3.2
- Chatbot UIの設定を変更
Docker Composeファイルの環境変数を以下のように変更:
environment:
# OpenAI APIの代わりにOllamaのエンドポイントを指定
APP_UPSTREAM: "http://localhost:11434"
ENABLE_OPENAI_API: "off"
ENABLE_OLLAMA_API: "on"
- Chatbot UIを再起動
これにより、ChatGPT風のUIで完全ローカルのLLMを利用できます。
ローカルLLMのメリットとデメリット
メリット
- 完全なプライバシー保護: データが一切外部に送信されない
- インターネット不要: オフライン環境でも利用可能
- コスト削減: API利用料金が不要(初期のハードウェア投資は必要)
- カスタマイズ性: モデルのファインチューニングや改造が可能
- 規制対応: データ保護規制(GDPR、個人情報保護法など)に完全準拠
デメリット
-
高いハードウェア要件:
- 最低でも16GB以上のRAM
- GPU(NVIDIA製推奨)があると大幅に高速化
- ストレージも数十GB必要
-
性能の制約:
- GPT-4やClaude 3.5と比べると応答品質は劣る
- 特に複雑な推論や最新情報への対応は弱い
-
セットアップの複雑さ: 技術的な知識が必要
-
最新情報の欠如: 学習データは過去のもの、リアルタイム情報は取得不可
ローカルLLMの推奨用途
以下のような用途に特におすすめです:
- 機密文書の要約・分析: 契約書、社内文書など
- コード生成・レビュー: 社内コードを外部に送信せずレビュー
- 社内チャットボット: 社内FAQやナレッジベース
- 翻訳・校正: 機密性の高い文書の翻訳
- 教育・研究: AI技術の学習や実験
システム要件の目安
| モデルサイズ | 最低RAM | 推奨RAM | GPU | 用途 |
|---|---|---|---|---|
| 2B-3B | 8GB | 16GB | 不要 | 簡単な質問応答、文章校正 |
| 7B-8B | 16GB | 32GB | 推奨 | 一般的な業務タスク、コード生成 |
| 13B-14B | 32GB | 64GB | 必須 | 高度な文章生成、複雑な推論 |
| 70B以上 | 64GB | 128GB+ | 必須(複数推奨) | 専門的な分析、研究用途 |
GPU推奨モデル: NVIDIA RTX 3060以上(VRAM 12GB以上)
最初に試すべきローカルLLM
初めてローカルLLMを試す方には、以下の組み合わせがおすすめです:
初心者向け(Windowsユーザー):
- ツール: LM Studio(GUI操作で簡単)
- モデル: Llama 3.2 8B Instruct または Qwen 2.5 7B
- 必要スペック: RAM 16GB、ストレージ10GB
中級者向け(macOS/Linuxユーザー):
- ツール: Ollama + Chatbot UI
- モデル: Llama 3.1 8B または Mistral 7B
- 必要スペック: RAM 16GB、ストレージ15GB
これらの環境であれば、比較的手軽にローカルLLMの導入と活用が可能です。
GitHub Copilotを使いこなす
まとめ
本記事では、ChatGPTをローカル環境で利用するための2つのアプローチについて詳しく解説しました。
記事のポイント
1. Chatbot UI + OpenAI API
OpenAI APIを利用しつつ、ローカルのインターフェースでChatGPTを操作する方法です。この方法では:
- データはOpenAIの学習に使用されないため、プライバシーが保護される
- 会話履歴の管理、フォルダ分け、検索機能などChatGPTにはない便利な機能が利用可能
- Dockerを使った簡単な導入手順で、比較的低いハードウェア要件で動作
2. 完全ローカルLLM(Ollama、LM Studioなど)
インターネット接続が不要な、完全にオフラインで動作するオープンソースのLLMを利用する方法です:
- Llama 3.2、Mistral、Qwen、Gemmaなど多様なモデルから選択可能
- 完全なプライバシー保護とコスト削減(API料金不要)
- Ollama、LM Studio、Text generation web UIなどの使いやすいツールで導入可能
- ただし、最低16GB以上のRAMなど高いハードウェア要件が必要
どちらを選ぶべきか?
Chatbot UI + OpenAI APIを選ぶべきケース:
- GPT-4クラスの高品質な応答が必要
- ハードウェアのスペックが限られている(RAM 8GB程度)
- 設定や管理を簡単にしたい
- 最新情報へのアクセスが必要
完全ローカルLLMを選ぶべきケース:
- 完全にオフライン環境で動作させたい
- 機密情報を絶対に外部に送信したくない
- API利用料金を削減したい
- モデルのカスタマイズやファインチューニングを行いたい
- 十分なハードウェアリソースがある(RAM 16GB以上)
最終的に
ローカル環境でのAI活用は、データのセキュリティとプライバシーを確保しつつ、AIの力を最大限に活用する上で重要な選択肢です。
企業の機密情報を扱う場合、個人情報保護法やGDPRなどの規制に対応する必要がある場合、またはコスト削減を目指す場合など、ローカル環境でのAI活用は大きなメリットをもたらします。
本記事で紹介したChatbot UIやOllamaなどのツールを活用することで、技術的なハードルを下げつつ、安全で効果的にAIを利用できるようになります。
まずはChatbot UI + OpenAI APIから始めてみて、必要に応じて完全ローカルLLMへの移行を検討するのがおすすめです。
AI総合研究所では、企業向けのローカルLLM導入支援や、セキュアなAI環境の構築をサポートしています。ローカル環境でのAI活用についてご相談やお見積もりをご希望の方は、お気軽にお問い合わせください。










