この記事のポイント
マルチモデル対応で、用途に応じてClaude・Nova・Llamaなどを同じAPIで切り替えられる
2026年にAgentCoreがGA化し、ポリシー制御や品質評価まで含めた本番運用がしやすくなっている
Knowledge BasesとGuardrailsを組み合わせれば、社内RAGとガバナンスを一体で運用できる
オンデマンド課金で初期費用なしに小規模PoCを開始でき、効果を見ながら段階的にスケール可能
既存のAWS資産を活用したい企業や、マルチモデル戦略を取りたい企業にとって有力な選択肢

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。
Amazon Bedrock(アマゾン ベッドロック)は、AWSが提供するフルマネージド型の生成AIプラットフォームです。AnthropicのClaude、AmazonのNova、MetaのLlamaをはじめ約100種類の基盤モデルを統一されたAPIから呼び出せるため、サーバーやGPUを自前で用意せずに生成AIアプリケーションを構築できます。
本記事では、Amazon Bedrockの基本的な仕組みからKnowledge Bases・Guardrails・AgentCoreなどの主要機能、利用できるモデル、料金体系、国内企業の導入事例、Azure OpenAI・Vertex AIとの比較まで、2026年4月時点の最新情報を整理して解説します。
Amazon Bedrockとは?
Amazon Bedrock(アマゾン ベッドロック)は、AWS(Amazon Web Services)が提供するフルマネージド型の生成AIプラットフォームです。
複数のAIプロバイダーが提供する基盤モデル(Foundation Model)を統一されたAPIから呼び出せる仕組みで、サーバーの構築・運用を意識せずに生成AIアプリケーションを開発できます。

2023年9月に一般提供(GA)が開始され、同年10月には東京リージョン、その後大阪リージョンにも展開されました。2026年4月時点では、対応モデルが約100種類まで広がり、エージェント運用基盤のAgentCoreや効率化機能(プロンプトキャッシュ・モデル蒸留など)が次々とGA化しており、AWSの生成AI戦略の中心に位置づけられているサービスです。
設計思想
Amazon Bedrockの設計は、次の3つの考え方で整理できます。
- マルチモデル
1つのAPIから複数プロバイダーのモデルを切り替えて利用できる。特定のモデルへのロックインを避けたい企業に向いた設計
- サーバーレス
インフラの構築・運用をAWSが担当する。利用者はAPI呼び出しだけに集中でき、GPUサーバーの調達は不要
- データプライバシー
入力データはモデルの再学習に使われない。転送中・保存時のデータは暗号化され、IAMポリシーで細かくアクセス制御できる
この3点が組み合わさることで、「生成AIを試したいが、GPUサーバーを自前で用意するのは難しい」という企業でも、既存のAWS環境にAPIを1つ追加する感覚で生成AIを導入しやすくなっています。
全体構成
Amazon Bedrockは、大きく「モデル層」「アプリケーション層」「運用層」の3階層で整理できます。各層がどのような役割を担うかを以下の表にまとめました。

| 階層 | 主な要素 | 役割 |
|---|---|---|
| モデル層 | Claude、Nova、Llama、Mistral等 | 推論・生成処理を担う基盤モデル群 |
| アプリケーション層 | Knowledge Bases、Agents、Guardrails | RAG・エージェント・安全性制御の機能群 |
| 運用層 | AgentCore、Provisioned Throughput | エージェントの品質評価・ポリシー制御・スループット管理 |
注目したいのは、モデルを呼び出すだけで終わらず、その上にRAG・エージェント・ガバナンスをフルマネージドで積み上げられる点です。モデルAPIとアプリケーション基盤が同じプラットフォーム上にあるため、外部ツールを複数組み合わせて構築する場合と比較して、認証・ネットワーク・監査ログまわりの設計を簡略化できます。
Amazon Bedrockの主要機能
Amazon Bedrockは、基盤モデルへのアクセスだけでなく、生成AIアプリケーションの構築から本番運用までを支える機能群をまとめて提供しています。ここでは大きく、社内データ連携・安全性制御・タスク自動化・運用基盤・効率化の5つの観点で整理します。

Knowledge Bases(RAG構築)

Knowledge Basesは、社内データを活用したRAG(検索拡張生成)をフルマネージドで構築できる機能です。
生成AIをそのまま使うと、モデルが学習していない社内情報については正確な回答が得にくいという課題があります。Knowledge Basesは、社内ドキュメントを検索して結果をモデルに渡すRAGパイプラインを、コードをほぼ書かずに構築できるよう設計されています。
対応するデータソースとベクトルストアを以下の表に整理しました。
| カテゴリ | 対応サービス |
|---|---|
| データソース | Amazon S3、Confluence、Salesforce、SharePoint、Webクローラー |
| ベクトルストア | Amazon OpenSearch Serverless、Aurora、Neptune Analytics、MongoDB、Pinecone、Redis Enterprise Cloud、Amazon S3 Vectors |
幅広いデータソースと複数のベクトルストアに対応しているため、すでにS3やSharePointに集約されている社内ドキュメントをそのまま検索対象にしやすい点が実務的なメリットです。チャンキング方式もセマンティック・階層型・固定サイズから選べ、Lambda関数を使った独自のチャンキングロジックも組み込めます。
2025年12月のAWS re:Invent以降は、テキストだけでなく画像・音声・動画まで含めたマルチモーダル検索や、低コストなベクトルストアであるAmazon S3 Vectorsへの対応も進み、社内ナレッジを「文書だけ」に縛らずに横断検索できるようになってきました。
Guardrails(安全性・ガバナンス)

Guardrailsは、生成AIの入出力に対してフィルタリングや検証を自動で適用する安全性制御の機能です。
業務で生成AIを使う場合、不適切な回答や機密情報の漏洩をどう抑えるかは避けて通れません。Guardrailsでは、公式ドキュメントで案内されている以下の仕組みを使ってこの課題に対応できます。
- コンテンツフィルタリング
ヘイトスピーチ、暴力、不正行為などの有害コンテンツを検出・ブロックする
- 拒否トピック・ワードフィルター
業務上扱いたくないトピックや、社外秘の単語・フレーズを定義し、入出力から除外する
- PII検出・マスキング
個人識別情報(氏名・メールアドレス・電話番号など)をユーザー入力とモデル応答の両方で検出し、自動で削除やマスクを行う
- Automated Reasoning
ユーザーが定義したルール・ポリシーへの論理的な一貫性を、形式的ロジックを用いて検証する。現状は英語(US)のみ対応で、ポリシー範囲外の事実検証は対象外
- コンテキストグラウンディングチェック
モデルの応答が、提供されたソースコンテキストにきちんと基づいているかを評価する
- プロンプト攻撃検出
ジェイルブレイクやプロンプトインジェクションを検出して、ブロックする
Guardrailsで特徴的なのは、Amazon Bedrock上のモデルだけでなく、自社ホストや他社プロバイダーのモデルに対しても適用できる点です。
AIガバナンスの観点では、特定モデルに紐付かない「横断的な安全性レイヤー」として設計されているため、社内で複数のモデル・LLMを使い分けている場合でも統一的な制御を適用しやすくなります。
Agents(タスク自動化)

Agentsは、自然言語での指示をもとに、複数のステップやツール呼び出しを組み合わせてタスクを遂行するオーケストレーション機能です。
たとえば「先月の売上レポートを作成して」という指示に対して、データベースへの問い合わせ→集計処理→レポート生成→メール送信といった一連の処理を、Agent自身が計画して実行する流れになります。
Knowledge BasesやGuardrailsと組み合わせれば、「社内データを参照しつつ、安全制御を効かせた状態でタスクを遂行するエージェント」を構築できます。AIエージェントを企業に導入する全手順を検討している場合、Bedrockはエージェント基盤の候補として検討対象に入ってくるサービスです。
AgentCore(エージェント運用基盤)

AgentCoreは、エージェントの開発から本番運用までを支える統合プラットフォームです。2026年に入ってから主要機能が次々とGA(一般提供)化しており、エンタープライズでのエージェント運用を想定した構成に整ってきています。
2026年3月〜4月時点でGA化した主な機能を以下に整理しました。
| 機能 | GA時期 | 概要 |
|---|---|---|
| Policy Controls | 2026年3月 | 自然言語でツールアクセスルールを定義し、AWSのオープンソースポリシー言語Cedarに自動変換 |
| Evaluations | 2026年3月 | 13種の組み込み評価指標(正確性・有用性・ツール選択等)でエージェント品質を自動監視 |
| WebRTC | 2026年3月 | ブラウザやモバイルから低遅延のリアルタイム音声通話を実現 |
| Memory Streaming | 2026年3月 | エージェントの長期メモリ更新をAmazon Kinesis経由でリアルタイム配信 |
| シェルコマンド実行 | 2026年3月 | 実行中セッション内でシェルコマンドを直接実行し、出力をリアルタイムでストリーミング |
この一覧から見えてくるのは、AgentCoreが「エージェントを動かす」だけでなく、ポリシー制御・品質評価・メモリ管理まで含めた運用面までカバーするようになった点です。Amazon Bedrockは従来の「モデルを呼び出すAPI」から、エージェントを設計・評価・制御まで一貫して扱えるプラットフォームへと役割を広げています。
特にPolicy ControlsとEvaluationsは、企業でエージェントを本番投入する際に問われやすい「実行範囲をどう制御するか」「品質をどう継続監視するか」という2点に、追加開発なしで対応できる点が実務的なメリットになります。
モデル運用を効率化する機能
主要機能に加えて、Amazon Bedrockには本番運用時のコストやレイテンシを抑えるための効率化機能も組み込まれています。代表的なものを以下にまとめました。
- プロンプトキャッシング
繰り返し利用する長いシステムプロンプトやドキュメントをキャッシュし、入力トークンの再課金を抑える機能。2026年1月にClaude Sonnet・Haiku・Opusの4.5系で1時間TTLオプションが追加され、長時間のセッションにも適用しやすくなった
- Intelligent Prompt Routing
リクエストの内容に応じて、軽量モデル(Haiku系・Nova Lite等)と高性能モデル(Sonnet・Opus等)を自動で振り分ける機能。すべてを高性能モデルに流す場合と比較して、品質を保ちながらコストを大幅に下げやすい
- Model Distillation
高性能モデルの出力をもとに、軽量モデルを蒸留(fine-tune)して特定タスク向けに高速化する機能。AWS公式によれば、最大で500%程度の高速化とおよそ75%のコスト削減を、最小限の精度低下で実現できるケースもあるとされている
- バッチ推論とFlex tier
リアルタイム性が不要な処理向けに、オンデマンド料金から最大50%割引されたバッチ推論と、優先度を下げる代わりに割引される推論枠(Flex)が提供されている
これらの機能をうまく組み合わせると、「品質とコストのバランス」をモデルだけで決めるのではなく、ルーティングやキャッシュ、蒸留といった運用レイヤーで調整できるようになります。本番運用に乗せるフェーズで効いてくる仕組みです。
Amazon Bedrockで利用できる基盤モデル

Amazon Bedrockの大きな特徴のひとつが、複数のAIプロバイダーが提供する基盤モデルを、同じAPIから選択・切り替えできる点です。2026年4月時点で約100種類のモデルが利用可能になっており、用途や要件に応じて最適なモデルを使い分けやすくなっています。
ここでは、主要なモデルプロバイダーごとに概要を見ていきます。
Anthropic Claude系
Anthropicが提供するClaudeシリーズは、Bedrock上で利用が広がっているモデルファミリーのひとつです。代表的なモデルを以下に整理しました。
| モデル | コンテキスト長 | 特徴 |
|---|---|---|
| Claude Opus 4.6 | 1Mトークン | 知的労働タスク・長文推論・コーディングで高い性能を発揮 |
| Claude Sonnet 4.6 | 1Mトークン | Opus 4.6に近い性能を比較的低コストで提供。エージェント用途と相性が良い |
| Claude Haiku 4.5 | 200Kトークン | 高速・低コスト。軽量なタスクやリアルタイム応答向け |
Claude Opus 4.6とSonnet 4.6は1Mトークン(およそ70万語相当)のコンテキストウィンドウに対応しているため、数百ファイル規模のコードベースや大量の社内ドキュメントを一度に読み込ませた上で推論する用途にも対応できます。大規模なRAGやコード解析を扱いたい場合の選択肢として有力です。
使い分けの目安としては、品質を最優先するならOpus 4.6、品質と単価のバランスを取るならSonnet 4.6、レイテンシとコストを重視するならHaiku 4.5、という整理が一般的です。詳しくはClaude Opus・Sonnet・Haikuの違いを比較した記事も合わせて参考にできます。
なお、東京リージョン(ap-northeast-1)では、Claude Sonnet 4.5 / Haiku 4.5が日本・オーストラリア向けのクロスリージョン推論プロファイル経由で利用可能になっています。最新世代を東京で扱うとレイテンシ面で有利な構成になるため、日本国内向けのアプリケーションにも組み込みやすい状況です。
Amazon Nova系
Amazonが自社開発したNovaシリーズは、コストパフォーマンスを意識して設計されたモデルファミリーです。2025年12月のAWS re:InventではNova 2世代が発表され、第1世代からの性能向上も図られています。代表的なモデルを以下にまとめました。
| モデル | 特徴 | 想定用途 | 備考 |
|---|---|---|---|
| Nova Pro | テキスト・画像・動画を扱えるマルチモーダルモデル | 汎用的な業務アプリケーション | GA |
| Nova Lite | 高速・低コストの軽量モデル | チャットボット、リアルタイム応答 | GA |
| Nova 2 Lite | 第2世代。Nova 1比で性能向上 | コスト効率を重視した汎用タスク | GA |
| Nova 2 Pro | 第2世代のProモデル | 高品質な推論が必要な業務 | プレビュー |
NovaシリーズはAWSネイティブなモデルであるため、Bedrock上でのレイテンシや料金面で扱いやすい点が魅力です。ClaudeやLlamaと比較して単価が抑えられているため、大量リクエスト処理や軽量タスクのコスト最適化に向いています。Nova 2 Proはプレビュー段階のため、本番運用ではGA済みのNova ProやNova 2 Liteを軸に検討するのが安全です。
Meta Llama系
MetaがオープンソースとしてリリースしているLlamaシリーズも、Bedrock上でフルマネージドの形で利用できます。代表的なモデルは以下のとおりです。
| モデル | パラメータ数 | 特徴 |
|---|---|---|
| Llama 3.3 70B | 700億 | オープンソース系で品質が高く、Bedrock上ではレイテンシ面でも扱いやすい |
| Llama 3.1 405B | 4,050億 | 超大規模モデル。複雑な推論やコード生成に強い |
Llamaモデルは重みがオープンソースとして公開されているため、モデルの透明性やカスタマイズ性を重視したいユースケースで選ばれることが多いモデルです。クラウド上でフルマネージドに使えるBedrockと、自社環境への持ち込みやチューニングを選択肢として持てるのは、社内ガバナンスの観点でも柔軟性が高くなります。
その他のプロバイダー
上記に加え、以下のプロバイダーのモデルもBedrockから利用できます。
- Mistral AI
欧州発のオープンソースLLM。多言語対応とコスト効率に強みがある
- Cohere
検索・要約・分類に強いモデル。RAGのリランキングなどにも組み合わせやすい
- Stability AI
Stable Diffusion系の画像生成モデル。テキストからの画像生成ユースケース向け
- AI21 Labs
Jurassicシリーズ。テキスト生成・要約に対応
2025年12月のAWS re:Inventでは、18種類のオープンウェイトモデルが一度に追加され、Bedrockとしては過去最大規模のモデル拡充が行われました。Google、NVIDIA、MiniMax、Qwenなどのモデルもラインナップに加わり、ユースケースに合わせて選べるモデルの幅がさらに広がっています。
Amazon Bedrockの使い方
Amazon Bedrockを使い始めるまでの流れは、AWSの他のサービスと比べてもシンプルです。ここでは、AWSアカウントの準備からAPIの基本的な呼び出しまでを順番に整理します。

AWSアカウント準備とモデルアクセス申請

Amazon Bedrockを利用するには、まずAWSアカウントが必要です。すでにAWSを利用している企業であれば、既存のアカウントにそのまま機能を追加する形で始められます。
利用開始の基本的な流れは次のとおりです。
- AWSマネジメントコンソールにログインする
- 「Amazon Bedrock」を検索してサービスページを開く
- 利用するリージョン(東京 ap-northeast-1 など)を選択する
- モデルを選んでAPIから呼び出す
2025年10月のアップデート以降、多くのサーバーレス基盤モデルは商用リージョンでデフォルト有効化されました。以前のような「申請→承認待ち」のステップは大半のモデルで不要になっており、コンソールから数クリックで試せる状態になっています。なお、Anthropic Claudeは初回のみusage form(利用目的の入力)を求められる場合があります。
リージョンの選び方としては、東京・大阪リージョンを軸にしつつ、利用したい最新モデルがそのリージョンに直接来ていない場合は、クロスリージョン推論プロファイルでus-east-1などを経由する構成を検討するのが現実的です。
APIからの基本的な呼び出し
モデルアクセスが有効になったら、AWS SDK(Boto3など)からAPIを呼び出せます。
PythonでClaude Sonnet系を呼び出す基本的なコード例を示します。
import boto3
client = boto3.client("bedrock-runtime", region_name="ap-northeast-1")
response = client.converse(
modelId="anthropic.claude-sonnet-4-6",
messages=[
{
"role": "user",
"content": [{"text": "Amazon Bedrockのメリットを3つ教えてください"}]
}
]
)
print(response["output"]["message"]["content"][0]["text"])
このコードで使っているのはConverse APIです。Converse APIはモデルに依存しない統一インターフェースになっており、modelIdを差し替えるだけでClaude・Nova・Llamaといった異なるモデルに同じコードで切り替えられます。後からモデルを評価し直す際に、アプリケーション側のコードを大きくいじらずに済むのが利点です。
初めてBedrock APIを触る場合は、AWSマネジメントコンソールの「Playgrounds」からノーコードでモデルの応答を試す方法もあります。まずはPlaygroundで期待した出力が得られるかを確認してから、API化に進む流れが手戻りを減らしやすい進め方です。
AI Readyの観点では、PoC段階からIAMポリシーの設計やVPCエンドポイントの構成を意識しておくと、本番移行のときに権限・ネットワーク周りで手戻りを減らせます。
Amazon Bedrockの導入事例

Amazon Bedrockは、国内外の大手企業から中堅企業まで幅広く採用が進んでいるサービスです。ここでは、AWSの公式導入事例ページや各社の公開情報をもとに、国内企業の事例をいくつか紹介します。
竹中工務店:ベテランの知識継承を支援する「デジタル棟梁」
竹中工務店は、建設業界で課題となっているベテラン従業員の知識・経験の継承を目的に、Amazon Bedrockを活用したナレッジ検索システム「デジタル棟梁」を構築しています。
現場で蓄積された施工ノウハウや設計判断の根拠などを社内ドキュメントとして整備し、Knowledge Basesを使ったRAG構成と組み合わせることで、若手社員が自然言語でベテランの知見にアクセスできる仕組みになっています。社内ルールや技術標準をAmazon S3に集約しておき、Bedrock上のモデルから参照する構成例として、AWS公式の導入事例でも詳細が公開されています。
KDDI:議事録・提案書の作成時間を短縮
KDDIのアジャイル開発センターでは、Amazon Bedrockを活用して議事録と提案書の作成時間を最大1時間程度短縮した取り組みが公開されています。
会議のたびに発生する議事録作成や提案書のドラフト作業は、参加人数や会議体が増えるほど負荷が膨らみがちな業務です。「定型的だが時間がかかる」タイプの業務は、生成AIの効果が出やすい領域のひとつといえます。
エフピコ:若手4人が1カ月でAIアプリを開発
食品容器メーカーのエフピコでは、若手社員4名がAmazon Bedrockを活用し、日報作成補助・流行分析アプリケーションをおよそ1カ月で開発しました。営業日報の要約・分析にかかっていた時間を、月間700時間以上削減したと公表されています。
この事例から見えてくるのは、フルマネージドなBedrockであれば、ML専門チームを抱えていない企業でも業務アプリケーションレベルの生成AI活用に踏み出しやすい、という点です。1カ月という開発期間も、フルマネージドサービスならではのスピード感を示す指標として参考になります。
ソニーグループ:マルチモデルを前提とした生成AI基盤
ソニーグループの事例は、AWSの公式customer storiesページで取り上げられています。多様な事業ポートフォリオを持つグループ全体で生成AIを利用する場合、業務ごとに最適なモデルを選びたいというニーズが出てくる場面が多く、単一APIから複数モデルを切り替えられるBedrockの設計とかみ合いやすい構造です。
【関連記事】
AIエージェントで業務効率化|部門別Before/Afterと導入手順
Amazon Bedrock vs Azure OpenAI vs Vertex AI

「AWS、Azure、Google Cloudのどれで生成AI基盤を構築すべきか」は、多くの企業が一度は検討する論点です。ここでは、3大クラウドの生成AIプラットフォームを比較しながら、それぞれの位置づけを整理します。
まずは3サービスの主要な違いを以下の表にまとめました。
| 比較軸 | Amazon Bedrock | Azure OpenAI Service | Google Vertex AI |
|---|---|---|---|
| モデル戦略 | マルチプロバイダー(Claude、Nova、Llama、Mistral等) | OpenAI中心(GPT-5系、DALL-E等) | Google中心(Gemini) + 一部サードパーティ |
| エージェント基盤 | AgentCore(Policy/Evaluations GA) | Microsoft Foundry Agent Service | Vertex AI Agent Builder |
| RAG機能 | Knowledge Bases(フルマネージド) | Azure AI Search + Prompt Flow | Vertex AI Search |
| 安全性制御 | Guardrails(Automated Reasoning付き) | Azure AI Content Safety | Vertex AI Safety Filters |
| 自社モデル | Amazon Nova 2シリーズ | なし(OpenAI依存) | Geminiシリーズ |
| 強みのエコシステム | AWS全体(S3、Lambda、SageMaker等) | Microsoft 365、Dynamics、GitHub | Google Workspace、BigQuery |
表からも分かるように、3サービスはそれぞれ異なる強みを持っており、機能面だけで優劣をつけるよりも「どのクラウドエコシステムに乗っているか」「どのモデルプロバイダーを使いたいか」で選び分けるのが現実的です。
対応モデルの違い
3サービスを比較すると、最も差が出やすいのが利用できるモデルのラインナップです。
Bedrockはマルチプロバイダー戦略を採っており、ClaudeとLlamaとNovaを同じAPI体系で切り替えられます。Azure OpenAI Serviceは名前の通りOpenAIのモデル(GPT-5系)を中心に提供しており、Vertex AIはGoogleのGeminiが主力です。
特定モデルへの依存を避けたい場合や、用途ごとにモデルを使い分けたい場合には、マルチモデル設計のBedrockが扱いやすい構成になります。一方で、OpenAIのモデルだけで業務要件が満たせる場合は、Azure OpenAI Serviceに寄せたほうがシンプルな構成になるケースもあります。
エコシステムの比較
モデルそのものの性能と並んで、選定の決め手になりやすいのが、既存のクラウド資産との相性です。
すでにAWS上でS3にデータを保存し、LambdaやSageMakerを活用している環境であれば、BedrockはIAM・VPC・CloudWatchなど既存のガバナンス体系にそのまま乗せられます。同じように、Microsoft 365やDynamicsを基盤にしている企業ではAzure OpenAIが、BigQueryやGoogle Workspaceを中心に使っている企業ではVertex AIがそれぞれ自然な選択肢になりやすい傾向があります。
AzureとAWSの料金、サービス、性能を徹底比較した記事も、クラウド全体の比較を確認したい場合の参考になります。
どう選ぶか

3サービスの位置づけを踏まえると、選定時の整理は次のように考えられます。
- AWS資産を中心に運用していて、マルチモデル戦略を取りたい場合
Amazon Bedrockが第一候補になりやすい。Claude・Nova・Llamaを同じAPIで使い分けられ、AWSの既存ガバナンスにそのまま組み込める
- Microsoft 365やGitHubを軸にしている場合
Azure OpenAI Serviceとの相性が良い。Microsoft 365 CopilotやGitHub Copilotとの統合面でメリットが出やすい
- データ分析基盤がBigQuery中心の場合
Vertex AIが扱いやすい。データパイプラインとの一体化や、Geminiモデルの最新機能を取り込みやすい
- クラウドが未選定、もしくはマルチクラウド構成を取る場合
モデルの選択肢が広いBedrockを起点に検証する流れが取りやすい。複数モデルを横並びで評価したい場合にも有効
こうして整理すると、判断軸は「どのモデルが優れているか」というよりも、「自社のデータとワークフローがどこに集約されているか」に近くなります。そこを起点に選ぶと、導入後の運用コストやスピード面でブレが少なくなります。
Amazon Bedrockの料金体系

Amazon Bedrockのコスト構造は完全従量課金が基本で、初期費用や最低利用料金はありません。2026年4月時点の料金体系を、課金モデル別に解説します。
最新の価格はAWS公式の料金ページで必ず確認してください。
オンデマンド(従量課金)
最も基本的な課金モデルで、処理したトークン数に応じて課金されます。事前の容量確保が不要で、使った分だけ支払う仕組みです。
主要モデルのオンデマンド料金目安を以下に整理しました(2026年4月時点:US East (N. Virginia) リージョン)。
| モデル | 入力(/1Mトークン) | 出力(/1Mトークン) | 備考 |
|---|---|---|---|
| Claude Sonnet 4.6 | $3.00 | $15.00 | |
| Claude Haiku 4.5 | $0.80 | $4.00 | |
| Nova Pro(第1世代) | $0.80 | $3.20 | GA |
| Nova Lite(第1世代) | $0.06 | $0.24 | GA |
| Llama 3.3 70B | $0.72 | $0.72 |
Nova 2 Liteは第1世代と異なる料金体系(入力$0.30/1Mトークン、出力$2.50/1Mトークン)で提供されています。Nova 2 Proはプレビュー段階のため料金は変動する可能性があります。リージョンやモデルバージョンによる差異があるため、正確な価格はAWS公式の料金ページで確認してください。
たとえばClaude Sonnet 4.6で1日あたり10万トークン(入力7万+出力3万)を処理する場合、1日のコストは約$0.66(約100円)です。月間で約$20(約3,000円)となり、小規模なPoCであれば十分に検証可能な金額です。
バッチ推論
バッチ推論は、リアルタイム性が不要な大量のリクエストをまとめて処理する方式で、オンデマンドと比較して最大50%のコスト削減が可能です。
日次のレポート生成や大量ドキュメントの一括処理など、結果を翌日までに得られれば十分なユースケースに適しています。
プロビジョンドスループット
プロビジョンドスループットは、一定の処理能力を時間単位で確保する予約型のプランです。
リクエスト量が予測可能で安定しているワークロード向けで、ピーク時のレイテンシを保証できるメリットがあります。ただし最低利用期間の制約があるため、利用パターンが安定していない段階での採用はコスト面でリスクになります。
コスト最適化のポイント
Bedrockのコストを抑えるうえで意識しておきたい観点を3つ整理します。
- モデルの使い分け
すべてのリクエストにOpusやSonnetを使う必要はない。分類やルーティングのような軽い処理にはHaikuやNova Liteを、品質が求められるタスクにはSonnetやOpusを、と用途に応じて使い分けるだけでも単価差が大きく効いてくる
- バッチ推論とFlex tierの活用
リアルタイム性が不要な処理はバッチ推論やFlex tierに回す。オンデマンド比で最大50%程度の割引が効くため、レポート生成や夜間集計など定期処理のコスト圧縮に向く
- プロンプトの最適化とキャッシング
不要なコンテキストを削って入力トークン数を減らすだけでもコストは下がる。長いシステムプロンプトを繰り返し使う構成では、プロンプトキャッシングを併用すると入力側の課金を抑えやすい
コスト管理の観点では、AWS BudgetsやCost Explorerを使ってBedrock利用料にアラートを設定しておくと安心です。想定外の利用量を早めに検知できる基本的なガードレールになります。
Amazon Bedrock利用時の注意点と導入判断

Amazon Bedrockは強力なプラットフォームですが、導入前に把握しておくべき制約と判断ポイントがあります。ここでは、実際の導入検討で見落としやすい点を整理します。
リージョンとモデル提供範囲
Amazon BedrockはすべてのAWSリージョンで利用できるわけではありません。
2026年4月時点で、Amazon Bedrock自体は東京リージョン(ap-northeast-1)と大阪リージョン(ap-northeast-3)の両方で利用可能です。ただし、利用できる機能やモデルにはリージョン差があります。
たとえば、最新のモデルはUS Eastでの提供が先行し、東京・大阪への展開が遅れるケースがあります。また、AgentCoreやKnowledge Basesなど一部の機能も、リージョンによって対応状況が異なります。利用したいモデルや機能がどのリージョンで使えるかは、AWSの公式ドキュメントで事前に確認してください。
コスト管理の課題
従量課金であるため、利用量が予測しにくい初期段階ではコストの見積もりが難しいという課題があります。
特に注意すべきは、PoCでは少量だった利用が本番展開後に急増するケースです。全社展開する前に、想定ユーザー数 × 1日あたりのリクエスト数 × 平均トークン数で月間コストをシミュレーションし、AWS Budgetsで上限アラートを設定しておくことが重要です。
導入判断で詰まる論点

企業がAmazon Bedrockの導入を検討する際に、判断が止まりやすいポイントは次の3つです。
既存のOpenAI API契約があるが、Bedrockに移行すべきか
OpenAI APIを直接利用している場合、Bedrockへ寄せるメリットは「AWSの既存ガバナンス体系(IAM・CloudTrail・VPC)にAI利用を統合できる」点にあります。セキュリティやコンプライアンス要件が厳しい企業では、認証・監査・ネットワーク境界をAWS側に揃えられる効果が比較的大きく出やすい構成です。
一方、OpenAIモデルへの依存度が高い場合は、Azure OpenAI ServiceがOpenAI最新モデルへの追従面で扱いやすいケースもあります。提供リージョンやコンプライアンス認証の範囲はOpenAI直接契約とAzureで異なるため、要件と照らしながら比較するのが現実的です。
SageMakerとBedrockのどちらを使うべきか
Amazon SageMakerは自社でモデルをトレーニング・ファインチューニングすることを前提にした機械学習プラットフォームで、Bedrockは既存の基盤モデルをAPI経由で利用し、その上にアプリケーションを構築するためのサービスです。役割が異なるため、二者択一というよりは併用前提で位置づけたほうが実態に近いケースが多いです。
ざっくりした目安としては、自社データで独自モデルを訓練したいならSageMaker、既存モデルの活用で要件が満たせるならBedrockという整理が分かりやすく、両方を組み合わせている企業も少なくありません。
PoCからどう進めるべきか
まずはオンデマンド課金で小規模PoCを始め、効果を見ながら本番化を判断する流れが、リスクとコストのバランスを取りやすい進め方です。実務では以下のような段階で進めるケースが多いです。
- AWSコンソールのPlaygroundで、想定するプロンプトとモデルの応答を手動で検証する
- Knowledge Basesで社内データ(S3上のドキュメント等)をRAGに接続し、回答精度を評価する
- Guardrailsを設定して安全性要件を満たすことを確認する
- Converse APIで業務アプリケーションに統合し、限定ユーザーでパイロット運用を開始する
- コストと品質を1〜2カ月モニタリングし、全社展開の判断材料を揃える
長期間かけて要件定義を固めてから開発に入るよりも、Playgroundで早めに実物を触ってからPoCの是非を判断したほうが、要件と現実のギャップに気づきやすく、結果的に手戻りを減らしやすくなります。
AWSのKiro(仕様駆動のAI IDE)と組み合わせれば、アプリケーション開発自体もAIで加速できるため、PoC期間の短縮にもつなげやすい構成になります。
Amazon Bedrockの検証を業務実装まで進めるなら
Amazon Bedrockは、モデル選定やプロトタイピングを進めやすい一方で、実業務で成果を出すには、どの業務に組み込むか、どのシステムから呼び出すか、どこまで自動化を許可するかを別途設計する必要があります。
特に、社内データや既存SaaSと接続し、部門横断で使われる状態まで持っていくには、権限、実行ログ、例外時の人手介入まで整理しないと、PoCで止まりやすくなります。
AI総合研究所のAI Agent Hub資料では、Amazon Bedrockのような既存AI基盤を前提に、業務システム連携、管理ダッシュボード、実行導線の整備をどう進めるかを整理しています。Amazon Bedrockの検証を業務実装へつなぐ判断材料としてご確認ください。
Amazon Bedrockの検証を業務実装まで進める
モデル検証の先にある業務接続・運用設計を整理
Amazon Bedrockでモデル検証を進めても、実運用では業務システム連携、権限設計、実行ログの管理まで含めた設計が必要です。AI Agent Hubの資料で、Amazon Bedrockの検証を業務実装につなぐ全体像をご確認ください。
まとめ
本記事では、Amazon Bedrockの基本概念から主要機能、利用できる基盤モデル、料金体系、導入事例、Azure OpenAI・Vertex AIとの比較までを、2026年4月時点の情報をもとに整理しました。
Amazon Bedrockがもたらす実務的な価値は、大きく次の3点に整理できます。
- マルチモデルの柔軟性
Claude、Nova、Llamaなど約100種類のモデルを同じAPIから切り替えて使えるため、特定プロバイダーへのロックインを避けつつ、用途ごとにモデルを選び直せる
- フルマネージドの運用効率
Knowledge Bases・Guardrails・AgentCoreによって、RAG・安全性制御・エージェント運用をAWSの管理下で一体的に扱える。2026年にAgentCoreが本番運用前提の構成に整い、品質評価やポリシー制御まで含めて設計しやすくなっている
- 段階的な導入のしやすさ
オンデマンド課金で初期費用ゼロからPoCを始められ、効果を見ながらスケールを調整できる。すでにAWSを使っている環境であれば、IAM・VPC・監査ログ基盤をそのまま活かせるため、ガバナンス面の追加負荷も抑えやすい
最初の一歩としては、AWSコンソールのPlaygroundで自社業務に近いプロンプトを試し、Knowledge Basesに社内ドキュメントを接続してRAGの精度を確認するあたりから始めるのが取り組みやすい流れです。Bedrock自体には初期費用がかからないため、「まず触ってから判断する」ハードルが低い点が、検討初期に動きやすい大きな理由になります。








