この記事のポイント
LM Studioは、ローカル環境で大規模言語モデル(LLM)を実行・管理できるクロスプラットフォーム対応のアプリケーションです。
LM Studioを使えば、モデルのダウンロード・実行・対話・API提供までをすべてローカルで完結させることができます。
LM Studioは、OpenAI互換のAPIサーバー機能を持ち、ローカルで実行しているモデルをChatGPT APIと同様の方法で他のアプリケーションから呼び出すことが可能です。
LM Studioは、PDFやTXTファイルを読み込ませ、内容に基づいた質疑応答を行う機能も備えています。
ローカルLLMを使うことで、プライバシーの確保やオフライン利用、カスタマイズ性の向上が期待できます。

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。
クラウドに依存せず、ローカル環境で大規模言語モデル(LLM)を安全に実行したい──そんなニーズに応えるのが「LM Studio」です。
GUIベースで簡単にモデルを導入・起動でき、OpenAI互換のAPIや文書読み取り機能、RAG構築にも対応。
エッジAIやオフライン環境でのAI活用を検討する企業・研究者にとって、強力な選択肢となりつつあります。
本記事では、LM Studioの概要から機能、導入手順、最新アップデートまでをわかりやすく解説します。
AI総合研究所では、ローカルLLMの導入支援を行っています。
お気軽にご相談ください。
目次
2. Runtime Extension Packの自動削除
3. LLMによるベクトル埋め込み生成(Embedding)への対応
左側メニューの使い方:Chat / Developer / My Models / Discover
Python SDK(<code>lmstudio-python</code>)
LM Studioとは?
LM Studioとは、ローカル環境で大規模言語モデル(LLM)を実行・管理できる、クロスプラットフォーム対応のアプリケーションです。Windows・macOS・Linuxの各OSに対応しており、オープンソースモデルをローカルで安全かつ簡単に活用したいユーザーに広く利用されています。
従来、LLMを活用するにはクラウドベースのAPIに依存することが一般的でした。しかし、LM Studioを使えば、モデルのダウンロード・実行・対話・API提供までをすべてローカルで完結させることができます。
LMStudioトップページ
これにより、以下のようなメリットが得られます。
- プライバシーの確保:外部クラウドにデータを送信せずに済むため、個人情報や機密情報の取り扱いに適しています。
- オフライン利用:インターネット接続なしでもモデルの活用が可能です。
- カスタマイズ性:使用モデルや設定、UI、APIなどを自由に調整できます。
LM Studioのもうひとつの大きな特徴は、OpenAI互換のAPIサーバー機能を持つ点です。これにより、ローカルで実行しているモデルを、ChatGPT APIと同様の方法で他のアプリケーションから呼び出すことが可能になります。
また、チャットインターフェースや埋め込み生成(RAG:検索拡張型生成)への対応、マルチモーダルモデル(画像・音声)の実行など、機能面も急速に進化しており、個人利用から研究用途、業務アプリへの組み込みまで、幅広いシーンで活用されています。
【関連記事】
ローカルLLMとは?メリットやおすすめモデル、導入方法を解説
LM Studioの主な機能
LM Studioは、ローカル環境でLLMを活用するための多機能な統合ツールです。以下に、特に注目すべき主要機能を紹介します。
モデル検索とダウンロード
LM Studioでは、Hugging Face Hubなどのモデルリポジトリから、任意の大規模言語モデルをGUI上で簡単に検索・ダウンロードできます。モデル名や用途(チャット、埋め込み生成など)でフィルタリングが可能で、初心者でも扱いやすい設計です。
例:
meta-llama/Llama-3-8B-Instruct
やgoogle/gemma-7b-it
などを数クリックで導入可能。
チャットインターフェース
直感的なチャットUIが組み込まれており、選択したモデルと即座に対話を始められます。モデル応答の表示スタイルやシステムプロンプトの編集も可能で、プロンプト調整やデバッグ用途にも適しています。
OpenAI API互換のローカルサーバー
LM StudioはOpenAI互換のエンドポイントを提供しており、ChatGPT APIと同じ形式でローカルモデルにアクセス可能です。これにより、以下のような活用が可能になります。
- 社内システムやアプリへの埋め込み
- LangChainやLlamaIndexとの統合
- 外部へのデータ送信を避けた高セキュリティ設計
ドキュメントとの対話(RAG対応)
PDFやTXTファイルを読み込ませ、内容に基づいた質疑応答を行う機能も備えています。内部的には、ベクトル埋め込み生成と検索を組み合わせたRAG(検索拡張型生成)アーキテクチャが用いられており、社内文書へのAI活用に向いています。
マルチモーダルモデルの対応
Gemma 3シリーズなど、テキスト以外の入力(画像・音声)に対応するモデルも利用可能です。今後のアップデートでは、より多くのマルチモーダルモデルへの対応拡大も期待されます。
最新アップデート(v0.3.16)の内容
LM Studioのバージョン0.3.16は、2025年5月23日にリリースされた最新版であり、ユーザビリティと処理効率の向上を目的とした複数の機能強化が含まれています。以下に主な変更点を紹介します。
1. コミュニティプリセット機能の導入(プレビュー)
ユーザーが作成したモデル設定(プリセット)を共有・公開できる「Community Presets」機能が追加されました。これにより、設定の初期化や最適化を他のユーザーと協業しながら行えるようになります。
例:特定モデル用に最適化された温度・トークン長・プロンプトテンプレートなどをそのまま適用可能。
2. Runtime Extension Packの自動削除
過去に一度使われたが現在利用されていないランタイム拡張(例:GGUF変換用拡張モジュールなど)を自動的にクリーンアップする機能が追加されました。これにより、ストレージ使用量の削減とパフォーマンス改善が期待されます。
3. LLMによるベクトル埋め込み生成(Embedding)への対応
新たに、チャット用途のモデルを埋め込み生成用としても活用できるオプションが追加されました。これは、RAG(検索拡張型生成)や類似文書検索における活用を見据えた設計であり、1つのモデルで複数の処理に対応可能となる柔軟性を提供します。
v0.3.16のアップデートは、開発者と一般ユーザーの双方にとって実用性の高い改善が揃っており、特にRAG構築やカスタムアプリ連携の効率化に直結する機能が目立ちます。
LM Studioの使い方と導入方法
LM StudioはGUI中心の設計により、初めてローカルLLMに触れるユーザーでも導入と利用がスムーズに行えるよう工夫されています。ここでは基本的な導入手順と使い方を紹介します。
インストール手順
以下のOS別にインストーラが提供されており、公式サイトまたはGitHubリリースページから入手可能です。
OS | 入手形式 | 備考 |
---|---|---|
Windows | .exe 形式 |
インストーラで自動セットアップ |
macOS | .dmg 形式 |
Gatekeeperでの許可が必要な場合あり |
Linux | .AppImage 等 |
ディストリビューションによっては追加設定が必要 |
インストーラーのイメージ
実際のモデルの追加と実行
アプリ起動画面
- アプリ起動後、画面左の「Models」からHugging Faceに接続。
Hugging Faceに接続画面
2. 使用したいモデル名を検索し、ダウンロード。
- チャットモード・埋め込みモードなどの用途を選択して起動。
ダウンロード画面
今回は、Microsoft phi4をダウンロードしました。
loadモデルでチャット画面の方に移行しましょう。
load画面
ロードが完了するとすぐにローカルLLMでの対話が可能になります。
実際の対話画面
左側メニューの使い方:Chat / Developer / My Models / Discover
簡単な操作でできるLM Studioの基本的な使い方を、左側メニューの各セクションごとに解説します。これらのセクションを活用することで、LLMの実行・管理がより効率的に行えます。
サイドバーイメージ
1. Chat:チャット対話モード
-
用途:選択したLLMと対話するメイン画面
-
使い方:
- 上部で使用するモデルを選択(例:
llama3-8b-instruct
)。 - 中央の入力欄に質問や命令文を入力し、Enterで実行。
- 応答は右側にリアルタイム表示。
- 上部の歯車アイコンから「温度」「最大トークン数」「システムプロンプト」などの設定を調整可能。
- 上部で使用するモデルを選択(例:
ChatGPTのような使い勝手で、モデルの応答品質やプロンプト設計を試すのに最適です。
2. Developer:開発・統合用パネル
-
用途:OpenAI互換APIのエンドポイント確認、外部アプリ連携設定、埋め込み生成の制御など
-
使い方:
- 「API Endpoint」で
http://localhost:1234/v1
を確認し、他アプリで利用。 - 「Embed」タブでは、LLMを使ってベクトル埋め込みを生成するエンジンとしても活用可能。
- 「Webhook」などの外部連携機能が今後拡充予定。
- 「API Endpoint」で
LangChainやLlamaIndexとの連携時にこの画面の設定を参照するケースが多いです。
3. My Models:ローカル管理されたモデル一覧
-
用途:ダウンロード済みモデルの管理・起動・設定変更
-
使い方:
- モデルごとに「Chat」「Embed」など起動モードを選択。
- 「⋮(三点リーダ)」から削除や設定変更、再量子化(例:4bit→5bit)などが可能。
- モデル情報(ファイルサイズ、必要VRAM、元リポジトリURLなど)も確認可能。
実行可能なモデルだけが並ぶため、運用中の環境の全体像を把握しやすい画面です。
4. Discover:モデルの検索とダウンロード
-
用途:Hugging Faceなどの外部リポジトリからモデルを探索・取得
-
使い方:
- 検索欄に「llama」「mistral」などのキーワードを入力。
- 対応モデルが一覧表示され、各モデルに「Download」ボタンが付属。
- モデル詳細を開くと、量子化形式(GGUF)、対応アーキテクチャ(Chat/Embed)も表示される。
モデル名がわからない場合でも「用途」「人気」「更新日」などで絞り込めます。
これら4つのセクションを適切に使い分けることで、LM Studioを単なるチャットアプリではなく、本格的なLLM開発・検証・運用ツールとして活用可能になります。
APIとしての利用方法
LM Studioは、OpenAI互換のAPIエンドポイント(http://localhost:1234/v1
など)を提供します。外部アプリから以下のように呼び出せます。
curl http://localhost:1234/v1/chat/completions \
-H "Authorization: Bearer YOUR-KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "llama3",
"messages": [{"role": "user", "content": "こんにちは"}]
}'
対応ハードウェアと推奨環境
LM Studioは、ローカルでのLLM実行を前提としているため、使用するモデルの規模や形式に応じて、ハードウェア要件が大きく変わります。ここでは、最低限必要な環境と、快適に動作させるための推奨構成を整理します。
最低動作環境
以下は、小〜中規模モデル(例:Mistral-7B、LLaMA 3 8Bなど)をCPUまたはGPUで実行する場合の目安です。
項目 | 推奨スペックの目安 |
---|---|
CPU | 4コア以上(Intel Core i5 第10世代以降など) |
メモリ(RAM) | 16GB以上(8GBでも軽量モデルなら動作可能) |
ストレージ | SSD推奨、空き容量20GB以上 |
GPU(任意) | NVIDIA CUDA対応GPU(VRAM 8GB以上推奨) |
CPUオンリーでも動作可能ですが、応答速度や大規模モデルの使用では限界があります。
GPU使用時の推奨構成
LLMの実行において、最も重要なのはGPUのVRAM容量とCUDA互換性です。たとえば以下のような構成が推奨されます。
- NVIDIA RTX 3060 / 4060:VRAM 12GB → LLaMA 3 8B 程度まで快適
- RTX 4080以上:VRAM 16GB以上 → LLaMA 3 13B、Gemma 7Bなども余裕あり
- CUDAバージョン:12.8以降対応(v0.3.16で正式サポート)
GPUなしでの使い方のヒント
GPUを搭載していない場合でも、以下の工夫により快適に利用可能です。
- 量子化済みモデル(GGUF形式)を利用:VRAMやRAM使用量を削減
- チャット履歴を短く保つ:推論処理量の削減
- マルチスレッドCPU環境の活用:CPUでも一定の応答速度を確保
実際の用途に合わせて利用しましょう。
開発者向けツールと連携方法
LM Studioは、単なるローカルチャットツールにとどまらず、開発者向けの豊富な統合機能を備えています。アプリケーションへの組み込みやRAGシステム構築、フロントエンドとの連携などを想定した設計が特徴です。
lmstudio-python
)
Python SDK(PythonからLM Studioにアクセスし、API呼び出しやモデル制御が可能です。Jupyter NotebookやStreamlit、Flaskなどとの連携に適しています。
from lmstudio import ChatSession
chat = ChatSession(api_base="http://localhost:1234")
response = chat.ask("こんにちは。今日の天気は?")
print(response)
OpenAIと同様のインターフェース設計のため、既存コードの移植も容易です。
lmstudio-js
)
TypeScript SDK(TypeScript/JavaScriptでも利用可能なSDKが提供されており、フロントエンドアプリ(Next.js、Electronなど)との統合にも対応しています。VS Code拡張やローカルWebアプリへの実装に活用されています。
lms
)
CLIツール(コマンドライン操作に対応するCLIも提供されており、以下のような用途に活用できます。
- モデルのダウンロード・一覧・起動
- チャット実行やファイル読み込み
- スクリプトによるバッチ推論の自動化
例:
lms chat --model llama3 --prompt "今日は何の日?"
これらのツール群により、LM Studioは開発者の作業効率を高め、柔軟なAIシステム構築を支援する環境としても優れています。
LM Studioの活用シーンとメリット
LM Studioは、個人ユーザーから企業、教育機関、研究者まで、幅広いユーザー層のニーズに応えるローカルLLMプラットフォームです。以下に代表的な活用シーンと、それぞれのメリットを整理します。
1. セキュアな業務環境でのAI活用
クラウドベースのAIサービスでは、機密情報を外部に送信するリスクがあります。LM Studioはすべてローカルで完結するため、顧客データ・契約書・社内文書などを扱う業務においても、安全性が高いと評価されています。
例:法務部門での契約文書レビュー、カスタマーサポートでのFAQ応答補助など
2. オフラインでの学習・実験
インターネット環境が制限されている場所(例:学会展示、遠隔地)でも、LM Studioを使えばローカルPC一台でLLMを動作させることが可能です。
例:教育現場でのAI授業、展示会でのAIデモ
3. カスタムアプリケーション開発
OpenAI API互換エンドポイントにより、自社アプリへのAI機能組み込みが容易になります。ローカル環境で動作確認やチューニングを行い、本番環境に移行する開発フローも構築できます。
例:業務システムへのチャットボット統合、文書要約APIの社内利用
4. RAGアーキテクチャの社内導入
社内ナレッジの活用を目的として、RAG(検索拡張型生成)による社内FAQ、文書検索、問い合わせ自動応答などのシステムを構築する際にもLM Studioは有効です。ベクトル検索とLLMの組み合わせをローカルで実現できます。
LM Studioは、「高い自由度」「セキュアな設計」「多用途なLLM活用」という3点において、クラウドサービスにはない優位性を発揮しています。
他のローカルLLMツールとの違い
ローカルでLLMを実行するツールは複数存在しますが、LM Studioは「GUI中心」「OpenAI互換API」「RAGとマルチモーダル対応」の3点で一線を画します。ここでは、代表的なツールとの比較を通じて、LM Studioの特徴を明確にします。
他ツールとの比較表
以下に、主要なローカルLLM実行ツールとLM Studioの機能比較を示します。
ツール名 | GUIあり | API提供 | モデル管理 | RAG対応 | マルチモーダル対応 | 特徴 |
---|---|---|---|---|---|---|
LM Studio | ◎ | ◎(OpenAI互換) | ◎(検索・DL・起動) | ◎ | ◎(Gemmaなど) | 総合的にバランスが良い |
Ollama | △(CLIメイン) | ◎(独自API) | ◎(簡易DL) | △ | △ | 軽量・高速、初心者向け |
GPT4All | ◎ | △(限定的) | ◎(UI操作) | △ | × | GUI重視、モデル数豊富 |
LocalAI | × | ◎(OpenAI互換) | △(configベース) | ◎ | △ | 開発者向け、高度な設定可能 |
LM Studioが選ばれる理由
- 設定の手軽さ:GUIベースでモデル検索〜起動まで一貫して操作可能
- 汎用性:チャット、埋め込み、API、ドキュメントQAすべてを統合
- RAG/マルチモーダル対応:最新の応用領域にも柔軟に対応可能
特定の用途に特化したツールもありますが、多用途かつUIに優れた総合ツールとしてはLM Studioが非常に有力な選択肢です。
まとめ
LM Studioは、ローカル環境で大規模言語モデル(LLM)を柔軟かつ安全に活用できる統合型アプリケーションです。GUIベースの直感的な操作性、OpenAI API互換のローカルサーバー、そしてRAGやマルチモーダル対応といった先進機能を備えており、個人利用から業務・研究用途まで幅広く対応します。
2025年5月に公開された最新版(v0.3.16)では、以下のような実用的なアップデートが追加され、さらに進化を遂げています。
- コミュニティプリセットの導入による設定共有
- 使用されていない拡張機能の自動削除
- LLMを埋め込み生成にも活用できる柔軟性の向上
ローカルでのAI活用は、プライバシー確保、オフライン対応、柔軟なカスタマイズ性という点でますます注目が集まっています。その中でLM Studioは、導入のハードルが低く、拡張性にも優れた選択肢と言えるでしょう。
「ローカルでもここまでできる」──その実感を得たい方は、ぜひ一度LM Studioを試してみてはいかがでしょうか。
AI総合研究所では、ローカルLLMの導入支援や活用方法のアドバイスも行っています。お気軽にご相談ください。