この記事のポイント
AI推進法は2025年9月に全面施行済み。罰則なしのソフトロー型だが、12月に策定されたAI適正性指針が事実上の行動規範となっており、遵守実績の蓄積が後の規制強化時にアドバンテージになる
AI基本計画(2025年12月閣議決定)で「世界で最もAIを開発・活用しやすい国」を目標に1兆円超の投資が確定。計算資源整備・人材育成・データ基盤に重点配分される
AI適正性指針(第16条の法定指針)は透明性・公正性・安全性の3本柱で構成され、AI事業者ガイドライン v1.1と併せて企業のガバナンス基盤となる
EU AI Actは2026年8月に全面適用開始予定。グローバル展開企業はAI推進法の努力義務に加え、EU規制への同時対応が必須
まず取り組むべきは、自社のAI利用状況の棚卸しとリスク分類。経産省の「AI利用契約チェックリスト」を使えば、ガバナンス体制構築の第一歩を踏み出せる

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。
日本初のAI基本法「AI推進法」(正式名称:人工知能関連技術の研究開発及び活用の推進に関する法律)が、2025年5月28日に成立し、同年9月1日に全面施行されました。
さらに2025年12月23日には、この法律に基づく「AI基本計画」が閣議決定され、政府は1兆円超のAI関連投資を表明しています。本記事では、AI推進法の基本理念から、AI基本計画・AI適正性指針の具体的内容、企業が今すぐ取るべきアクション、EU AI Actとの比較まで、2026年最新情報で徹底解説します。
AI推進法とは?
AI推進法は、正式名称を「人工知能関連技術の研究開発及び活用の推進に関する法律」といい、日本で初めてAI技術の研究開発と活用推進を包括的に扱う基本法です。2025年4月24日に衆議院本会議で可決された後、5月28日に参議院本会議で可決・成立し、6月4日に公布されました。
その後、9月1日にAI戦略本部の設置規定を含む全条文が施行され、12月23日にはこの法律に基づく「AI基本計画」が閣議決定されています。成立から半年余りで、法律の枠組みが実行フェーズへ移行した形です。
この法律が定める主な目的は、以下の3点です。
- AI技術の研究開発及び活用を総合的かつ効果的に推進すること
- 国民生活の向上及び国民経済の健全な発展に寄与すること
- 個人の権利利益を保護しつつ、AI技術の便益を国民が享受できる社会を実現すること
また、この法律はいくつかの重要な基本理念を掲げています(法律第3条)。これらは、AI基本計画やAI適正性指針を含む、今後のAI政策全体の基礎となる考え方です。
- 多様な分野での活用
AI技術を社会のあらゆる分野で積極的に活用し、生活の質の向上や産業競争力の強化を目指す。
- 研究開発能力の向上
AI技術の研究開発能力を高め、国際的な競争力を維持・向上させる。
- 適正な利用の確保
AI技術の透明性や公正性を確保し、個人の権利利益が不当に侵害されることのないようにする。
- 国際協調
AIに関する国際的なルール作りや協力体制に積極的に参画する。
- 人材育成
AI技術を理解し、活用できる人材を育成する。
この法律を端的に表現すると、日本のAI技術の研究開発と社会実装を国策として後押ししつつ、AIがもたらすリスクにも対応するための基本ルールを定めた法律です。罰則規定を持たないソフトロー型の設計であり、ガイドラインや指針を通じて事業者の自主的な行動を促す点が特徴です。
企業がAIを導入・活用する際に押さえるべきAIガバナンスの基本的な考え方は、この法律の理念と密接に関わっています。
なぜ今「AI推進法」が生まれたのか?
AI技術は私たちの生活やビジネスに大きな変化をもたらしていますが、同時に新たな課題も生み出しています。日本がAI推進法という新たな法律を制定した背景には、国内外の複数の動きと社会的な要請がありました。
加速するAI技術の進化と社会への影響
近年、ChatGPTに代表される生成AIの登場は、AI技術の進化が新たなフェーズに入ったことを世界に示しました。文章作成、画像生成、プログラムコード作成など、これまで人間にしかできないと考えられていた領域でも、AIが高い能力を発揮し始めています。
- ビジネスへの応用
業務効率化、新サービス開発、マーケティング戦略など、多岐にわたる分野でAI活用が加速。
- 生活への浸透
スマートフォン、家電、医療、教育など、身近なところでAI技術が活用され、私たちの生活を豊かにしている。
- 新たなリスクの顕在化
ディープフェイクによる情報操作、AIによるフェイクニュースの大量生成、AI生成物の著作権問題、個人データの不適切な利用、AIによる一部業務の自動化に伴う雇用のミスマッチなど。
このようなAI技術の恩恵とリスクが急速に顕在化する中で、イノベーションを阻害しない形でリスクをコントロールするためのルール作りが急務となりました。
国際的なAIルール形成の動き
AIに関するルール作りは、日本だけの課題ではありません。世界各国でAIの規制やガバナンスに関する議論が活発化しています。
- EU(欧州連合)
2024年にAI Act(AI規制法)を成立させ、リスクベースでの規制アプローチを導入。2025年2月から禁止行為規定が適用開始され、2026年8月に全面適用予定。違反企業には全世界売上高の最大7%の制裁金が科される。
- 米国
連邦レベルでは大統領令による政策指示が中心だが、州レベルでのAI規制法案が増加。企業による自主的な取り組みも重視されている。
- 中国
AI産業の振興と並行して、アルゴリズム規制や生成AIサービス管理規則などを導入済み。
- 国際的な枠組み
G7、OECD、国連などでもAIの倫理原則やガバナンスに関する議論が進行。特に「G7広島AIプロセス」では、信頼できるAIの実現に向けた国際指針が合意された。
こうした国際的な潮流の中で、日本も独自の立ち位置を明確にする必要がありました。AI推進法は、日本のAI戦略の基本姿勢を示すという意味でも重要な役割を担っています。
【関連記事】
▶︎AI規制法とは?日本・海外の事例を踏まえ、その内容と影響を徹底解説
国民の期待と不安に応えるための法整備
AI技術の急速な発展は、国民生活の向上への期待を高める一方で、安全性や悪用に対する不安も生んでいます。
- 期待される側面
医療の質の向上、災害予測の精度向上、労働力不足の解消、新たなサービスの創出など。
- 懸念される側面
雇用の喪失、プライバシー侵害、誤った情報による判断ミス、差別や偏見の助長、AIによる自律的な判断への不安など。
AI推進法は、こうした期待に応えつつ、AI技術の恩恵を安全に享受できる社会の実現を目指しています。ただし、この法律は「規制強化」を主目的としたものではなく、あくまでAI技術の推進を主眼に置きつつ、適正な利用とリスクへの対応のバランスを図るソフトロー的アプローチを取っている点が重要です。
AI推進法の主な内容と重要条文
AI推進法は、AIに関する日本の取り組みの全体像を示す基本法です。ここでは特に押さえておくべき重要なポイント(基本理念、関係者の責務、AI基本計画、AI戦略本部、AI適正性指針)を解説します。
基本理念と関係者の責務
AI推進法では、基本理念(第3条)としてAI政策全体の方向性が定められています。さらに、AI社会の実現に向けて、国、地方公共団体、研究開発法人等、事業者、国民それぞれが担うべき責務も明確にされています(第4条〜第8条)。
以下の表で、各関係者の責務を整理しました。
| 関係者 | 主な責務 |
|---|---|
| 国 | AIに関する施策を総合的に策定・実施する。国際協力を推進する |
| 地方公共団体 | 国の施策と連携しつつ、地域の実情に応じたAI活用施策を推進する |
| 研究開発法人等 | AI技術の高度化・実用化に向けた研究開発を推進し、成果を普及する |
| 事業者 | AI技術の適正な利用に努め、透明性・公正性を確保する。利用者の権利利益を保護する |
| 国民 | AI技術への理解を深め、適正な利用に努める |
実務的に注目すべきは、事業者への責務が「努力義務」として規定されている点です。法的な強制力を持つ義務ではありませんが、後述するAI適正性指針やAI事業者ガイドラインと組み合わせることで、事実上の行動規範として機能します。
国が進めるAI研究開発・活用促進とリスク対応策
この法律では、国が取り組むべき基本的な施策についても具体的に定めています(第11条〜第17条)。
- 研究開発の推進及び成果の普及(第11条)
基盤技術の研究開発、データ整備、計算資源の確保などを推進。
- 施設等の整備及び共用の促進(第12条)
研究開発拠点やスーパーコンピュータなどの共用を促進。
- 人材育成及び教育振興(第13条・第14条)
AI専門家や、AIを利活用できる人材の育成、学校教育におけるAIリテラシー教育の推進。
- 国際的な規範策定への参画等(第15条)
AIに関する国際的なルール作りに積極的に関与。
- AI技術の適正な活用の確保のための施策(第16条)
AIの不正利用や権利侵害のリスクに対応するため、国が「指針を整備する」ことや、情報の収集・分析・提供を行うことを規定。この条文に基づき、2025年12月にAI適正性指針が策定された。
- 情報収集、調査及び研究(第17条)
AI技術の動向や社会への影響に関する情報収集・分析を行う。
特に第16条は、AI適正性指針の法的根拠となる条文です。既存のAI事業者ガイドラインがこの法律によって法的な裏付けを得たことで、企業にとってはガイドライン遵守の重要性が一段階高まっています。
AI基本計画(2025年12月閣議決定)
AI推進法は、政府が「人工知能基本計画」(通称:AI基本計画)を策定し公表することを義務付けています(第18条)。この規定に基づき、2025年12月23日にAI基本計画が閣議決定されました。
計画の正式名称は「人工知能基本計画 〜『信頼できるAI』による『日本再起』〜」であり、主な内容は以下の通りです。
- 基本目標
「世界で最もAIを開発・活用しやすい国」を目指す。
- 投資規模
政府はAI関連施策に1兆円超を投資することを表明。計算資源整備、人材育成、データ基盤構築に重点配分。
- 基本原則
イノベーション促進とリスク対応の両立、柔軟かつ迅速な政策対応(アジャイル)、内外一体での政策推進。
- 重点分野
医療・ライフサイエンス、金融、行政、産業用ロボットなど幅広い分野でのAI社会実装を推進。
AI基本計画は、日本のAI戦略の具体的なロードマップです。企業がAI導入を検討する際には、この計画が示す重点分野や支援策の方向性を把握しておくことが有効です。
AI戦略本部の役割と構成
AIに関する施策を強力に推進するため、AI推進法は内閣に「人工知能戦略本部」(通称:AI戦略本部)を設置することを定めています(第19条〜第28条)。2025年9月1日の全面施行と同時に設置され、9月12日に初会合が開催されました。
- 本部長
内閣総理大臣
- 副本部長
内閣官房長官、デジタル大臣、その他国務大臣
- 本部員
その他の全ての国務大臣
総理大臣をトップに全閣僚が参加する体制で、AI基本計画の策定推進、関係省庁の施策の総合調整、AI政策の重要事項の審議を所掌しています。12月19日の会合ではAI適正性指針が決定され、12月23日のAI基本計画閣議決定につながりました。
AI適正性指針(2025年12月策定)
AI推進法第16条に基づき、2025年12月19日にAI戦略本部が「人工知能関連技術の研究開発及び活用の適正性確保に関する指針」(通称:AI適正性指針)を決定しました。
この指針は、全ての主体(開発者・提供者・利用者)におけるAIの研究開発・活用の適正性確保に必要となる基本方針を示すものです。透明性、公正性、安全性の3つを柱とし、既存のAI事業者ガイドラインと一体的に運用されます。
企業にとっては、AI事業者ガイドライン(v1.1、2025年3月発行)とAI適正性指針の2つが、AI活用における事実上の行動基準となっています。
AI推進法とEU AI Actの違いを比較
日本のAI推進法は、しばしばEUのAI Act(AI規制法)と比較されます。推進重視の日本と、規制重視のEUでは、具体的にどのような違いがあるのでしょうか。
日本のAI推進法の特徴(ソフトロー的アプローチ)
日本のAI推進法の最大の特徴は、ソフトロー的なアプローチです。ソフトローとは、法律のような直接的な強制力や罰則はないものの、関係者の自主的な行動を促すための規範や指針を指します。
- 罰則規定なし
この法律自体には、直接的な罰則規定は設けられていない。
- 推進重視
AI技術の研究開発とイノベーションを阻害しないよう、規制よりも推進に力点を置いている。
- 事業者の自主性尊重
企業による自主的なルール作りや倫理的な配慮を重視。
- 指針による誘導
AI適正性指針やAI事業者ガイドラインを通じて、望ましい行動を促す。
- 基本法としての性格
個別の具体的な規制は、今後の関連法規やガイドラインで定められる可能性がある。
このアプローチは、急速に進化するAI技術に対して柔軟に対応しつつ、日本の国際競争力を高めることを意図しています。
EU AI Actとの目的・アプローチの違い
EUのAI Actは、AIがもたらすリスクから市民の権利や安全を保護することを主眼に置いた、ハードロー型の規制です。2024年に成立し、2025年2月から段階的に適用が開始されています。
- リスクベース・アプローチ
AIシステムをリスクレベルに応じて4段階(許容できないリスク、高リスク、限定的リスク、最小リスク)に分類。
- 禁止事項と厳格な義務
「許容できないリスク」に該当するAI(サブリミナル操作、社会的スコアリングなど)は原則禁止。「高リスク」AI(重要インフラ、採用、法執行など)には厳格な適合性評価や透明性確保義務が課される。
- 罰則規定あり
違反企業には全世界売上高の最大7%(または3500万ユーロのいずれか高い方)の制裁金。EU域外の企業にも適用される。
- 適用スケジュール
2025年2月に禁止行為規定が適用開始。2026年8月2日に全面適用予定。高リスクAIの一部規定は2027年8月まで移行期間あり。
両法の比較
以下の表で、両者の主な違いを整理しました。
| 比較項目 | 日本「AI推進法」 | EU「AI Act」 |
|---|---|---|
| 主な目的 | AIの研究開発・活用の推進、イノベーション促進 | 市民の権利・安全の保護、信頼できるAIの確保 |
| アプローチ | ソフトロー的(指針中心、自主規制尊重) | ハードロー的(リスクベースの厳格な規制) |
| 規制の強さ | 努力義務+ガイドライン | リスク分類に応じた法的義務 |
| 罰則 | なし(レピュテーションリスクは存在) | 全世界売上高の最大7% |
| 施行状況 | 2025年9月全面施行済み | 2025年2月から段階適用、2026年8月全面適用予定 |
| 企業への影響 | AI適正性指針+ガイドライン遵守、自主的リスク管理 | 適合性評価、透明性確保、データガバナンス構築が法的義務 |
グローバルに事業展開する企業にとっては、日本のAI推進法とEU AI Actの両方に対応する必要があります。日本のソフトロー型のアプローチに基づいてガバナンス体制を構築しておくことが、EU規制への対応においてもベースラインとなるため、早期の体制整備は二重の意味で有効です。
企業や国民はどう対応すべき?AI推進法の影響と求められること
AI推進法の全面施行とAI基本計画の策定により、企業も国民も具体的な対応が求められるフェーズに入りました。ここでは、それぞれの立場で何をすべきかを解説します。
企業に求められる努力義務とガイドラインの重要性
AI推進法では、事業者に対して「基本理念にのっとり、その事業活動を行うに当たって、人工知能関連技術の適正な利用に努めるものとする」(第7条)と、努力義務を課しています。
この努力義務を具体化するのが、AI適正性指針(2025年12月策定)とAI事業者ガイドライン v1.1(2025年3月発行)です。特に以下の5つの観点が、企業のAI活用における事実上の行動基準となっています。
- 透明性の確保
AIシステムの判断プロセスや学習データを可能な範囲で説明できるようにする。
- 公正性の確保
AIが特定の属性に対して不利益な扱いや差別を行わないようにする。
- 安全性の確保
AIシステムや関連データに対するサイバー攻撃や不正アクセスを防ぐ。生成AIのセキュリティリスクへの対策も含まれる。
- プライバシー保護
個人情報を適切に取り扱い、プライバシーを侵害しないようにする。
- 人間中心の設計
AIシステムが人間の判断を補助するものであり、最終的な責任は人間が負うことを意識する。
さらに、経済産業省は2025年2月に「AIの利用・開発に関する契約チェックリスト」を取りまとめました。AI利活用の実務になじみのない事業者でも、このチェックリストを活用することで、契約面でのリスク分配を適切に設計できます。
AI開発・提供事業者と利用事業者が注意すべきこと
AI開発・提供事業者は、AIシステムの設計段階から倫理的・法的・社会的な課題(ELSI)を考慮し、安全で信頼性の高いAIを開発・提供する責任があります。
- 学習データの品質と偏りのチェック
- AIモデルの性能評価と検証
- 利用者への適切な情報提供(機能、限界、リスクなど)
- インシデント発生時の対応体制の整備
AI利用事業者は、導入するAIシステムの特性やリスクを理解し、自社の事業目的や倫理観に沿って適切に活用することが求められます。
- 利用目的の明確化とリスクアセスメント
- 従業員へのAIリテラシー教育
- AIによる判断結果の検証と人間の監督体制
- 利用者や関係者への説明責任
どちらの事業者も、社内にAIガバナンス体制を構築し、継続的に見直しを行うことが重要です。2026年4月からは行政機関における生成AIの調達・利活用ガイドラインも全面適用されるため、行政との取引がある企業は特に注意が必要です。
一般国民・利用者への影響と権利保護の視点
一般国民も、AI技術の利用者としてその特性を理解し、賢く付き合っていく必要があります。
- AIリテラシーの向上
AIがどのように機能し、どのような影響を与える可能性があるのかを学ぶ。
- 情報源の確認
AIによって生成された情報(ニュース記事、SNS投稿など)の真偽を慎重に見極める。
- プライバシー意識の向上
AIサービスを利用する際に、どのような個人情報が収集・利用されるのかを確認する。
- 権利侵害への対応
AIによって不利益な扱いや権利侵害を受けたと感じた場合に、相談できる窓口や制度を知っておく(例:消費者庁、個人情報保護委員会など)。
AI推進法は国民の権利利益の保護も目的としており、AI基本計画では生成AIの基本的な使い方や注意点を学べるコンテンツの提供、社会人向けの生成AIスキル習得支援も施策として盛り込まれています。
AI推進法に罰則はある?違反した場合の影響
AI推進法自体には直接的な罰則規定はありません。これはイノベーション促進と事業者の自主性尊重という法律の基本姿勢に基づいています。しかし、罰則がないことが「何もしなくてよい」を意味するわけではありません。
- 他の法律による規制
AIの利用に関連して、個人情報保護法、著作権法、不正競争防止法など既存の法律に違反した場合には、それぞれの法律に基づく罰則が科される。
- 行政指導や勧告の可能性
AI適正性指針に著しく反する不適切なAI利用があった場合、行政からの指導や助言が行われる可能性がある。今後の運用や関連政省令によって具体的な措置が明確化される見込み。
- レピュテーションリスク
不適切なAI利用が発覚した場合、企業の社会的信用が失墜し、顧客離れやブランドイメージの低下につながるリスクは非常に大きい。
実務的な観点では、AI推進法の努力義務を早期に遵守し、ガバナンス体制の構築実績を蓄積しておくことが、将来の規制強化時に大きなアドバンテージとなります。
AI推進法の今後の展望と日本のAI戦略の未来
AI推進法の全面施行とAI基本計画の閣議決定により、日本のAI戦略は「枠組みの整備」から「実行フェーズ」へ移行しました。ここまでの進捗と今後のスケジュール、残された課題を整理します。
これまでの進捗と今後のスケジュール
以下の表で、AI推進法に関連する主要な動きを時系列で整理しました。
| 時期 | 出来事 |
|---|---|
| 2025年5月28日 | AI推進法 成立 |
| 2025年6月4日 | AI推進法 公布(一部施行) |
| 2025年9月1日 | AI推進法 全面施行(AI戦略本部設置規定含む) |
| 2025年9月12日 | AI戦略本部 初会合開催 |
| 2025年12月19日 | AI適正性指針 AI戦略本部決定 |
| 2025年12月23日 | AI基本計画 閣議決定(1兆円超投資表明) |
| 2026年4月1日 | 行政向け生成AI調達・利活用ガイドライン 全面適用 |
| 2026年8月2日(予定) | EU AI Act 全面適用(日本企業にも影響) |
| 2028年頃(予定) | AI推進法の施行後3年見直し |
2026年は、AI基本計画に基づく具体的施策の執行が本格化する年です。計算資源整備、人材育成プログラム、分野別ガイドラインの策定などが順次進められていく見込みです。
この法律で日本のAI開発・活用はどう変わるか
AI推進法とAI基本計画により、以下の変化が期待されています。
- 研究開発の加速
1兆円超の国家投資による計算資源整備と研究開発拠点の強化。
- 社会実装の促進
医療、金融、行政、製造業など重点分野でのAI導入加速。
- 人材育成の強化
AI専門家の育成に加え、生成AIスキルの社会人向け研修が国策として推進される。
- ガバナンス基盤の整備
AI適正性指針とAI事業者ガイドラインが事実上の行動基準として定着し、企業のAIガバナンスが底上げされる。
- 国際競争力の向上
「世界で最もAIを開発・活用しやすい国」を目標に、規制と推進のバランスを取った政策運営。
特に注目すべきは、ソフトロー型のアプローチがどこまで実効性を持つかという点です。AI基本計画の実行状況と、企業のガバナンス体制構築の進捗が、今後の政策判断を左右します。
残された課題と今後の法整備の可能性
AI推進法はAI基本法であり、全ての課題を解決するものではありません。以下の論点が今後さらに検討される見込みです。
- 生成AI特有のリスクへの対応
2025年12月に「生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード」の案が公表されており、著作権保護と透明性確保のルール化が進行中。総務省はNICTにおいて生成AIの安全性評価基盤の開発を2026年から開始する。
- 高リスクAI分野の個別規制
医療、自動運転、重要インフラなどのリスクの高い分野では、より具体的な安全基準の導入が議論される可能性がある。
- 国際整合性の確保
EU AI Actの全面適用(2026年8月)に伴い、グローバル企業はEU規制と日本のソフトロー型アプローチの両立を求められる。両者の整合性をどう取るかが政策課題。
- 施行後3年見直し
AI推進法の附則には、施行後3年(2028年頃)を目途に法律の見直しを行う旨が記載されている。技術の進展と社会状況の変化に応じて、規制の強化や新たな制度設計が行われる可能性がある。
企業にとっては、現時点のソフトロー型の枠組みの中でガバナンス体制を先行して構築しておくことが、2028年の見直し時にも有利に働きます。
AI推進法を踏まえて自社のAI導入計画を具体化するなら
AI推進法の成立は、企業にとってAI活用を加速させる制度的な後押しとなります。法律が求めるガバナンス体制の整備と並行して、自社業務のどこからAI化を始めるかを具体的に設計することが、競争優位を築く鍵です。
AI総合研究所では、法制度を踏まえた業務プロセスへのAI導入ステップをまとめた実践ガイドを無料で提供しています。AI推進法が示す方向性と自社の導入計画を結びつける具体的な方法を確認してみてください。
AI推進法の理解を自社のAI導入戦略に結びつける
AI業務自動化ガイド
AI推進法の成立は、企業のAI活用を後押しする追い風です。法制度の理解を踏まえた上で、自社業務のどこからAI化を始め、段階的に拡大するかの実践ステップをガイドにまとめました。
まとめ
AI推進法は、2025年5月の成立から9月の全面施行、12月のAI基本計画閣議決定を経て、日本のAI政策の基盤として本格的に機能し始めています。
本記事の内容を3つのポイントに集約すると、以下の通りです。
- ソフトロー型だが、実質的な行動規範は確立済み
罰則はないが、AI適正性指針(2025年12月策定)とAI事業者ガイドライン v1.1が事実上の基準。早期の遵守実績が将来の規制強化時にアドバンテージとなる。
- AI基本計画で1兆円超の投資が確定
「世界で最もAIを開発・活用しやすい国」を目標に、計算資源・人材・データ基盤への重点投資が進行中。企業は支援策の方向性を把握し、自社のAI戦略に組み込むべき。
- 2026年はEU AI Act全面適用の年
グローバル企業はAI推進法とEU規制の両対応が必須。日本のソフトロー型ガバナンス体制の構築が、EU対応のベースラインにもなる。
一方で、ソフトロー型アプローチの実効性、生成AI特有のリスクへの対応、国際規制との整合性など、今後の法整備で解決すべき課題も残っています。2028年頃に予定される施行後3年見直しの方向性は、企業のAIガバナンス投資の回収にも直結するため、引き続き注視が必要です。
具体的な第一歩として、まず自社のAI利用状況を棚卸しし、経産省の「AIの利用・開発に関する契約チェックリスト」に照らしてリスク分類を行うことを推奨します。法制度への対応は、棚卸しの結果を踏まえて優先順位を付けるのが効率的です。













