この記事のポイント
2026年のMicrosoft Fabricアップデートをカテゴリ別・月別に日本語で全項目解説
月別サマリーで「今月何が変わったか」を一覧でき、各項目へのリンクで詳細にジャンプ可能
Data Factory、リアルタイムインテリジェンス、データエンジニアリングなど主要カテゴリごとに変遷を追える
2月はモダン評価エンジンGA・ダッシュボード10倍高速化など32件の大型更新が集中
月次で更新中。最新のFabric動向を日本語で継続的にキャッチアップ可能

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。
Microsoft Fabricは毎月大規模なアップデートを行っていますが、公式ブログは英語ベースで情報量も膨大です。
「結局何が変わったの?」「自分のチームに影響ある?」と感じる方も多いのではないでしょうか。
本記事では、2026年のMicrosoft Fabricアップデートをカテゴリ別・月別に整理し、公式Feature Summaryの全項目を日本語で解説します。毎月更新していきますので、ブックマークしてご活用ください。
Microsoft Fabricアップデートまとめ
Microsoft Fabric(マイクロソフト ファブリック)は、データの収集・加工・分析・Power BIによる可視化を一貫して行えるSaaS型のデータ分析基盤です。
Microsoftは毎月「Feature Summary」として新機能や改善点を公開していますが、英語かつ情報量が多いため、日本語環境のユーザーにとって追いかけ続けるのは負担が大きいのが実情です。
そこで本記事では、公式Feature SummaryとMS Learnの新着情報の両方をソースとして、2026年のアップデートをカテゴリ別・月別に整理して日本語で解説します。
公式ブログの全項目を網羅した上で、実務でのインパクトや関連ドキュメントへのリンクも添えています。
毎月中旬〜下旬に更新しますので、ブックマークしてご活用ください。
月別アップデートサマリー
Microsoft Fabricは毎月中旬〜下旬に「Feature Summary」として新機能や改善点を公式ブログで発表しています。このセクションでは、各月のアップデートをカテゴリ別の件数・注目トピックとともにサマリーテーブルで一覧しています。
テーブル内のリンクから、該当カテゴリの詳細セクションに直接ジャンプできますので、気になる機能をすぐに確認できます。
過去月のサマリーも掲載しているため、特定の月に何が変わったかを振り返る際にもご活用ください。
2026年2月
公式:Fabric February 2026 Feature Summary

2月はGA(一般提供)ステータスの機能が多く、プレビューを経て本番利用可能になった機能が集中した月です。
全7カテゴリで合計32件のアップデートが発表されました。以下の表にカテゴリごとの件数と注目トピックをまとめました。
| カテゴリ | 件数 | 注目トピック | ステータス |
|---|---|---|---|
| Data Factory | 12件 | モダン評価エンジンGA | GA |
| データエンジニアリング | 8件 | ノートブック版履歴強化 | GA |
| プラットフォーム | 4件 | OneLakeカタログ刷新 | GA |
| リアルタイムインテリジェンス | 3件 | ダッシュボード10倍高速化 | GA |
| データサイエンス | 2件 | Semantic Link 0.13.0 | GA |
| データウェアハウス | 2件 | SQLプールInsights | GA |
| 開発者ツール | 1件 | VS Code Copilot Chat連携 | GA |
Data Factoryだけで12件と圧倒的に多く、パイプラインやDataflow Gen2の運用に関わるエンジニアは特に注目です。
リアルタイムダッシュボードの大幅高速化やvNet対応など、本番環境への即効性が高いアップデートも目立ちます。
2026年1月
1月はプラットフォーム基盤の強化が目立つ月でした。OneLakeカタログの親子階層表示やセキュリティAPI拡充、Git統合の柔軟化など、ガバナンスと開発者体験の両面で大きな進展がありました。
データウェアハウスではMERGE文とResult Set CachingがGAとなり、本番投入可能な機能が増えています。
全5カテゴリで合計25件のアップデートが発表されました。
| カテゴリ | 件数 | 注目トピック | ステータス |
|---|---|---|---|
| プラットフォーム全体 | 9件 | OneLakeカタログ親子階層 | GA/プレビュー |
| リアルタイムインテリジェンス | 6件 | MQTT v3対応 | GA |
| データエンジニアリング | 5件 | Lakehouse高同時実行モード | GA |
| データウェアハウス | 4件 | MERGE文GA | GA |
| Data Factory | 1件 | 増分コピーコネクタ拡充 | GA |
プラットフォーム全体だけで9件と圧倒的に多く、Fabric基盤そのものの成熟度が上がった月です。
また、MicrosoftによるOsmos社の買収も発表され、Fabric上でのエージェント型データエンジニアリングへの布石が打たれました。

公式:Fabric January 2026 Feature Summary
Data Factory
Data Factoryは、Microsoft Fabric上でデータパイプラインの構築・運用を担うサービスです。Dataflow Gen2によるデータ変換、Copy jobによるデータ移動、パイプラインオーケストレーションなど、ETL/ELT処理の中核を担います。
Azure Data Factoryの機能をFabric上に統合・発展させたサービスであり、Fabricのデータ統合レイヤーとして位置づけられています。
2026年2月 - モダン評価エンジンGAほか11件

2月のData Factoryは全カテゴリのなかで最多の12件が更新されました。Dataflow Gen2のエンジン刷新からCopy jobの認証拡張まで、パイプラインの構築・運用に関わる幅広い改善が含まれています。
Azure Data FactoryからFabricへの移行を検討中の方も、最新の進化を把握しておくことをおすすめします。
モダン評価エンジンの一般提供(GA)
Dataflow Gen2のクエリ評価エンジンが.NET 8ベースの新アーキテクチャに刷新され、正式リリースとなりました。Azure Data Explorer、Lakehouse、Warehouse、Salesforce、Google Analyticsなど80以上のコネクタに対応しており、Fabric SQL DatabaseやSQL Server Databaseを含むSQLベースのコネクタもサポートされています。
Web要求の効率化により、REST APIやWebエンドポイントベースのデータソースでもスムーズなクエリ実行と耐障害性の向上が実現しています。
今後の新機能はこのエンジンをベースに提供されるため、既存のDataflow Gen2ワークロードが新エンジンで正常に動作するか、早めの検証を推奨します。
参考:Dataflow Gen2のモダン評価エンジン公式ドキュメント
Lakehouse増分コピーのCDF・ウォーターマーク両方式対応
Copy jobでFabric Lakehouseからの増分コピーを行う際、Delta Change Data Feed(CDF)とウォーターマークベースの2方式から選択できるようになりました。
CDFが有効なテーブルでは行単位のinsert・update・deleteを検出してレプリケーションでき、CDFが無効な場合でもウォーターマーク列(増分列)を指定することで差分コピーが可能です。
大規模なデータ同期をフルコピーで実行している場合、増分コピーへの切り替えでコスト削減と処理時間の短縮が見込めます。Copy jobの作成後、Advanced Settingsボタンからウォーターマーク列への切り替えが可能です。
SAP Datasphere Outbound のS3・GCS対応
SAP DatasphereからのCDCレプリケーション用ステージングストレージとして、従来のADLS Gen2に加えてAmazon S3とGoogle Cloud Storageが選択可能になりました。
マルチクラウド環境でSAPデータを活用している企業にとって、自社のクラウド構成に合わせたステージング先を選べるようになった意味は大きいです。
参考:SAP Datasphere Outboundチュートリアル
適応型パフォーマンス調整(プレビュー)
データ移動のパフォーマンスを実行コンテキストに応じて動的に最適化する新機能がプレビュー公開されました。データ量の増加やシナリオの多様化に伴い、スループット・信頼性・コスト・データ正確性のバランスを手動で調整する負担が課題になっていましたが、この機能により、構成セマンティクスと互換性のある最適化がサービス側で自動的に適用されます。
オプトイン方式で、既存構成への変更は不要です。パイプライン設定から直接有効化できます。
最近のデータへの高速アクセス(プレビュー)
Dataflow Gen2で頻繁に使うテーブルやファイルに素早くアクセスできる「Recent data」機能がプレビュー公開されました。Power Queryリボンから直接アクセスするか、Get Data内のRecent dataモジュールから利用できます。選択した項目はPower Queryエディタに直接読み込まれるため、ナビゲーションの手間が省けます。
同じロケーション内の関連アイテムを探す場合は「Browse location」機能で同一フォルダやデータベース内の他のテーブル・ファイルも確認できます。
Dataflow Gen2の変数ライブラリ統合改善
2025年9月にプレビュー公開されたFabric変数ライブラリとDataflow Gen2の統合が改善されました。主な変更点は2つあります。1つ目は、Dataflowが評価ごとに取得できる変数数の制限が撤廃されたこと。2つ目は、Power Queryエディタのデータプレビューで変数が正しく評価されるようになったことです。Variable.ValueやVariable.ValueOrDefault関数の出力がエディタ上で確認できます。
データ送信先での変数使用時に保存が失敗する問題や、ナビゲーションステップでの変数使用時のエディタ体験も改善されています。
参考:Dataflow Gen2での変数ライブラリ統合ドキュメント
Dataflow Gen2のFabricコネクタ相対参照
Dataflow Gen2でFabricコネクタ(Lakehouse、Warehouse、SQL Database)を使用する際、これまでワークスペースIDやアイテムIDによる絶対参照が必要でしたが、新たに「(Current Workspace)」ノードによるアイテム名ベースの相対参照が可能になりました。
CI/CDシナリオでの実用性が大きく向上し、開発環境からテスト環境・本番環境へソリューションを移行する際にスクリプトの変更が不要になります。デプロイパイプラインの運用負荷を大幅に軽減できる機能です。
参考:Fabric Lakehouseコネクタ、Warehouseコネクタ、SQL Databaseコネクタ
Dataflow Gen2のジャストインタイムパブリッシング
これまでDataflow Gen2を実行・更新する前に、未公開の変更がある場合は手動でパブリッシュ操作を行う必要がありました。この更新により、実行・更新操作がパブリッシュの必要性を自動的に判断し、ジョブの一部として完了するようになりました。
手動パブリッシュも引き続き利用可能で、UIでの保存時には従来通りパブリッシュが実行されます。
CI/CDデプロイメント時にも別途パブリッシュステップが不要になり、ターゲット環境での初回実行時に自動的にパブリッシュされます。初回更新は自動パブリッシュの分だけ時間がかかる点に留意してください。
参考:Dataflow Gen2のCI/CDとGit統合ドキュメント
Copy jobのCDC列マッピング対応
CDCレプリケーション時にソースからデスティネーションへの列マッピングがサポートされました。列名の変更、データ型の変換、デスティネーションスキーマのカスタマイズが可能になります。
この列マッピング機能は、フルコピー・ウォーターマークベース増分コピー・CDCレプリケーションの全データ移動パターンで統一的に利用できます。
参考:Copy jobのCDCレプリケーション公式ドキュメント
RowVersionの増分列サポート
Copy jobの増分コピーで、従来の日付/時刻型や増加する数値型に加えて、RowVersionを増分列として選択できるようになりました。SQL Server、Azure SQL Database、SQL Managed Instance、Fabric内のSQLから増分コピーを行う際に利用できます。
CDCが有効化されていないデータベースでも、RowVersionを使って前回実行以降の新規・変更行を効率的に検出できます。
Copy jobアクティビティのサービスプリンシパル・ワークスペースID認証
パイプライン内のCopy jobアクティビティで、サービスプリンシパル認証とワークスペースID認証が追加されました。長寿命のシークレットに頼らず、IDベースのアクセスを採用することでセキュリティ態勢を強化できます。
規制産業やハイブリッド環境を運用する組織では、標準化された認証パターンによるコンプライアンス・監査対応の簡素化も見込めます。
大規模CSVファイルの並列読み込み
大規模CSVファイルの取り込みパフォーマンスが大幅に向上しました。マルチライン設定を明示的に定義することで、サービスがレコード境界を安全に識別し、ファイルを論理チャンクに分割して並列処理します。
マルチラインレコード(引用符で囲まれた改行を含むフィールド等)を含むCSVファイルでは、明示的な設定なしでは最も保守的なパーシングモデルが適用され並列化が阻害されます。ソース設定でマルチライン情報を指定することで、データの正確性を損なうことなく高スループットを実現できます。
参考:区切りテキストファイルのパフォーマンス最適化ドキュメント
2026年1月 - 増分コピーコネクタ拡充
Copy jobの増分コピー機能が対応コネクタを大幅に拡充しました。

増分コピー対応コネクタの追加
Copy jobの増分コピーで新たに11のコネクタがサポートされました。Google BigQuery、Google Cloud Storage、DB2、ODBC、Fabric Lakehouseテーブル、フォルダ、Azure Files、SharePoint List、Amazon RDS for SQL Server、Amazon RDS for Oracle、Azure Data Explorerが追加されています。
マルチクラウド環境でのデータ統合シナリオが広がり、特にGoogle Cloud StorageやAmazon RDS経由のデータソースからの増分コピーが可能になったことで、既存のフルコピーパイプラインをより効率的な増分コピーに移行できます。
リアルタイムインテリジェンス
リアルタイムインテリジェンスは、ストリーミングデータの取り込み・処理・可視化をリアルタイムに行うFabricの機能群です。Eventstream(データ取り込み)、KQLデータベース(時系列分析)、リアルタイムダッシュボード(ライブ可視化)、Real-Time Hub(データソース管理)で構成され、IoTやテレメトリ、運用監視などのリアルタイム分析シナリオに対応します。
2026年2月 - ダッシュボード10倍高速化ほか2件

リアルタイムインテリジェンスでは、パフォーマンスの大幅改善、閉域ネットワーク対応、UIの簡素化という3つの柱でアップデートが行われました。
リアルタイムダッシュボードのパフォーマンス改善
コミュニティのフィードバックを受け、リアルタイムダッシュボードが根本から最適化されました。主な改善点は以下のとおりです。
-
初期ロード時間
シナリオによっては最大6倍高速化
-
大規模データセットの可視化
待ち時間が大幅に短縮
-
チャート描画
円グラフで最大10倍の高速化を実現
-
UI全体のレスポンス
フリーズやビジュアルのジャンプが解消され、スムーズな操作感に
本番環境でリアルタイム監視ダッシュボードを利用している場合、この更新で体感速度の向上を実感できるはずです。
閉域ネットワークからのストリーミング対応(vNetサポート)
EventstreamがAzure vNet経由のストリーミングに対応しました。新しい「ストリーミング仮想ネットワークデータゲートウェイ」を使って、クラスターのプロビジョニングなしで閉域ネットワーク内のデータソースに接続できます。
オンプレミスのKafkaクラスターやCDCデータベースからのVPN/ExpressRoute経由接続、サードパーティクラウドのKafkaクラスターからのVPN接続など、多様な接続パターンに対応しています。セットアップは「Manage Connections and Gateways」ページから行い、Eventstreamのソース設定時にゲートウェイを選択するだけで利用可能です。
従来のVirtual network data gatewayやOn-premises data gatewayと異なり、追加のクラスタープロビジョニングや容量は不要です。金融・医療などセキュリティ要件が厳しい業種でのFabric採用ハードルが大きく下がるアップデートです。
参考:Eventstreamコネクタのプライベートネットワークサポート公式ドキュメント
データ接続UIの簡素化
Real-Time Hubの左ナビゲーションにあった「Data sources」と「Azure sources」の2つのメニューが「Add data」に統一されました。カテゴリ分類ではなく「データを追加する」というユーザーの意図に焦点を当てた変更です。
利用できるデータソース(組み込みコネクタ、Azureソース、Azure Diagnosticsログ等)は従来と同じですが、接続の開始ポイントが一本化されたことで新規ユーザーのオンボーディングがスムーズになります。段階的なロールアウトのため、表示が反映されるまで数週間かかる場合があります。
2026年1月 - MQTT v3対応ほか5件
リアルタイムインテリジェンスでは、IoT接続の拡充とEventhouseショートカットの大幅強化を中心に6件のアップデートが行われました。

EventstreamのMQTT v3対応
EventstreamのMQTTコネクタがMQTT v3.1およびv3.1.1に対応しました。広く普及しているIoTプラットフォームやMQTTブローカーからFabric Eventstreamへのデータストリーミングが直接可能になります。
既存のブローカー設定を変更することなく、Eventstreamのスケーラビリティとリアルタイム処理能力を活用できます。取り込んだデータはFabric Real-Time Intelligenceでリアルタイム分析とアラートに即座に活用でき、IoTイベントの検出と対応を迅速化します。
参考:EventstreamのMQTTソース追加ドキュメント
リアルタイム天気コネクタの一般提供(GA)
Eventstreamのリアルタイム天気コネクタが正式リリースとなりました。イベントペイロードにロケーション名を直接含められるようになり、フィルタリングや分析の際の追加エンリッチメントステップが不要になります。
テナントレベルの制御スイッチも導入され、テナント管理者が組織全体で天気コネクタの有効・無効を制御できます。リアルタイム分析、アラート、ダッシュボードなどのミッションクリティカルなユースケースで本番利用が可能です。
Eventhouseアクセラレーテッドショートカットの日時列ベース対応
Eventhouseのアクセラレーテッド OneLakeショートカットに、HotDateTimeColumnプロパティが追加されました。Delta/Icebergテーブルの特定の日時列を指定して、ホットキャッシュ対象データを制御できます。
デフォルトではdelta_logのmodificationTimeを使用しますが、HotDateTimeColumnを設定することで、ビジネスロジックに沿った日時列(例: イベント発生日時)でキャッシュ範囲を最適化できます。クエリアクセラレーションポリシーの変更で設定可能です。
Eventhouseショートカットのデータ鮮度レイテンシ制御
クエリアクセラレーションポリシーのMaxAgeプロパティにより、ショートカットのデータ鮮度を制御できるようになりました。デフォルトは5分ですが、クエリ実行時にMaxAgeを動的にオーバーライドできます。
例えば external_table(TableName, 10s) とすることで、MaxAgeを10秒にオーバーライドし、ポリシー定義を変更せずに鮮度とパフォーマンスのバランスを動的に調整できます。
Eventhouseショートカットの簡略化KQL構文
Eventhouseのショートカットが通常のテーブルと同様にクエリできるようになりました。これまで必要だったexteranl_table()構文を使わず、標準的なテーブル名で直接クエリ可能です。
例えば「T | take 10」のように、ショートカットTから10行サンプリングできます。外部データへのアクセスが直感的でシンプルになります。
EventhouseショートカットのCopilotサポート
KQL QuerysetおよびリアルタイムダッシュボードのCopilotが、Eventhouseのショートカットに対するKQLクエリ生成に対応しました。ショートカットはEventhouseでは外部テーブルとして実装されていますが、Copilotによりネイティブテーブルと同じ操作感でクエリを自然言語から生成できます。
データエンジニアリング
データエンジニアリングは、Apache Sparkベースのノートブックやレイクハウスを中心に、大規模データの加工・変換・管理を行うFabricの機能領域です。Pythonノートブック、SparkジョブDefinition、API for GraphQL、User Data Functionsなどのツールを提供し、データレイク上でのETL処理やデータ準備ワークフローを支えます。
2026年2月 - ノートブック版履歴強化ほか7件

データエンジニアリング領域では、ノートブックの開発体験を中心に8件の改善が入りました。バージョン管理・モジュール化・セキュリティ・外部接続と、開発ライフサイクル全体に関わる強化が揃っています。
ノートブックバージョン履歴の複数ソース対応
ノートブックの変更履歴が、変更の発生元(ポータル編集・Git同期・デプロイパイプライン・VS Code公開)を明確にラベル表示するようになりました。Fabricのノートブックは Git、デプロイパイプライン、Visual Studio Codeとシームレスに統合されているため、保存されたバージョンは自動的に履歴に記録されます。
CI/CDワークフロー(Git同期、デプロイパイプライン、パブリックAPI)やチームでの共同開発において、「誰が・いつ・どの経路で変更したか」を正確に把握でき、必要に応じて適切なポイントへのロールバックも可能です。
PythonノートブックのPercentRun対応
Pythonノートブックで %run がサポートされ、他のノートブックを同一実行コンテキスト内で呼び出せるようになりました。共有ユーティリティやセットアップロジックをコピペせずモジュール化でき、プロジェクト構造をクリーンに保ちながら共通コードを一元管理できます。
現時点ではノートブックアイテムの参照のみに対応しており、ノートブックリソースフォルダ内の.pyファイルの実行サポートは近日追加予定です。
ノートブックのフルサイズモード
セルを全画面に展開して集中編集できるフルサイズモードが追加されました。長いコードブロックや複雑なSQL、大規模なPythonブロックの編集、画面共有時に特に有効です。フルサイズモード中も完全な編集機能を維持しつつ、前後のセルへのナビゲーションも可能です。セルツールバーから有効化できます。
API for GraphQLのPrivate Link対応
Fabric API for GraphQLがテナントレベルのPrivate Linkに対応しました。GraphQL APIへのアクセスがMicrosoftのプライベートバックボーンネットワーク経由になり、データトラフィックがパブリックインターネットを経由しなくなります。
複雑なファイアウォールルールやVPN設定が不要になり、既存のAzure Private Linkインフラストラクチャとの統合によってガバナンスが簡素化されます。Microsoft Entra ID認証やシングルサインオンとも連携した、エンタープライズ対応のセキュリティモデルです。テナント管理設定からAzure Private Linkを有効化することで利用できます。
参考:GraphQL APIのPrivate Linkサポートドキュメント
API for GraphQLのCI/CD対応(GA)
GraphQLアーティファクトのGit管理、プルリクエストワークフローでのコラボレーション、デプロイパイプラインによる環境間プロモーションが正式サポートされました。バージョン管理・レビュー・ロールバックの仕組みがコードやデータと同じレベルでAPIにも適用され、Azure DevOpsなどの既存のCI/CD環境と組み合わせて運用できます。
信頼性とパフォーマンスの改善も併せて実施されています。
参考:GraphQL APIのCI/CDとソース管理ドキュメント
Fabric User Data Functionsの既定値引数サポート
ユーザーデータ関数で既定値引数がサポートされ、省略された引数にプリセットのデフォルト値が適用されるようになりました。文字列、boolean、float、int、配列、オブジェクト型に対応しています。
一般的なユースケースでは引数の指定を省略でき、必要に応じてカスタマイズする柔軟な運用が可能になります。関数呼び出しの簡素化とコードの柔軟性向上に寄与します。
参考:User Data Functionsの既定値引数ドキュメント
Microsoft ODBCドライバ for Fabric Data Engineering(プレビュー)
.NET、Python、その他のODBC互換アプリケーションやBIツールからSpark SQLに接続するためのエンタープライズグレードのODBCドライバがプレビュー公開されました。FabricのLivy APIを介したSpark SQL接続を提供します。
ODBC 3.x準拠、Microsoft Entra ID認証、包括的なSpark SQLおよびデータ型サポート、大規模データセット向けのパフォーマンス最適化、プロキシサポートやセッション再利用などのエンタープライズ機能を備えています。OneLakeとLakehouseデータとの緊密な統合、環境ベースの実行、ワークロードに応じたSpark設定のカスタマイズにも対応しています。
参考:Microsoft ODBCドライバ for Fabric Data Engineering公式ドキュメント
ノートブックのカスタマー管理キー(CMK)暗号化対応
CMKが有効化されたワークスペースでノートブックが完全にサポートされました。セルソース、セル出力、セル添付ファイルなどのコアコンテンツとメタデータが、自社管理のAzure Key Vaultキーで保存時に暗号化されます。
開発者のワークフローを変更することなく、より厳格なガバナンスとコンプライアンス要件に対応できます。
2026年1月 - Lakehouse高同時実行モードほか4件
データエンジニアリング領域では、Lakehouse操作のパフォーマンス最適化、ノートブックの外部接続強化、VS Code連携、Materialized Lake Viewの改善と、開発効率に直結する5件のアップデートが入りました。

Lakehouse高同時実行モード
Lakehouse操作のLoad to TableやPreviewに対して、最大5つの独立したジョブが1つのSparkセッションを共有する高同時実行モードが追加されました。Managed Virtual Network環境では従来3〜5分かかっていたSparkの起動待ちが、セッション再利用により5秒以内に短縮されます。
料金面でも大きなメリットがあり、共有アプリケーションを起動した最初のSparkセッションのみが課金され、同一セッションを共有する後続のオペレーションには追加コストが発生しません。最適化されたセッションはFabricが自動管理し、Monitoring HubでHC_<lakehouse_name>の命名規則で追跡可能です。
ノートブックのFabricコネクション対応(プレビュー)
ノートブックにGet Data機能が追加され、Azure Blob Storage、PostgreSQL、Azure Key Vault、S3などへの接続がコネクションフローで簡素化されました。コネクション作成後、データソースへのアクセスコードスニペットが自動生成されます。
Basic認証、アカウントキー認証、トークン認証、ワークスペースID認証、サービスプリンシパル認証に対応しています。Fabricのデータソース管理ページからもコネクションを作成可能で、その場合は「Allow Code-First Artifacts like Notebooks to access this connection」トグルを有効にする必要があります。
VS Codeからワークスペースのノートブックを直接編集
Fabric Data Engineering VS Code拡張で、ワークスペース上のノートブックをダウンロードせずに直接開いて編集できるようになりました。VS Code上での変更を保存すると、リモートワークスペースのノートブック内容が自動的に更新されます。
ノートブックのツールバーにある「Open Notebook Folder」アイコンからVFS(仮想ファイルシステム)モードで起動し、同一ウィンドウで複数のFabricワークスペースとノートブックを同時に開くことも可能です。
Materialized Lake ViewのCreate or Replaceセマンティクス対応
Materialized Lake Viewで、既存のビューをドロップせずにCreate or Replaceで更新できるようになりました。カラムの追加・変更、変換ロジックの調整、メタデータの更新が、ビューの削除・再作成なしで実行可能です。
データモデルの反復開発が高速化し、コアな分析オブジェクトの削除・再構築に伴う運用リスクや中断を回避できます。
参考:Materialized Lake ViewのSpark SQLリファレンス
Materialized Lake Viewのリネージ強化
Materialized Lake Viewのリネージ(系統)表示に、ノートブックソースが明確に表示されるようになりました。各ビューの生成元を簡単にトレースでき、削除されたソースもフラグ表示されます。
トラブルシューティングの迅速化とリフレッシュスケジュールの信頼性向上に寄与します。
参考:Materialized Lake Viewのドキュメント
データサイエンス
データサイエンスは、Azure Machine Learningと統合された機械学習ワークフローをFabric上で提供する機能領域です。MLモデルのトレーニング・デプロイ・監視のほか、Semantic Linkによるセマンティックモデルとの連携、ノートブックベースの探索的データ分析などをカバーしています。
2026年2月 - Semantic Link 0.13.0ほか1件

データサイエンス領域では、プログラマティックなFabric資産管理の強化とMLモデルの本番監視機能が追加されました。
Semantic Link 0.13.0
Semantic Linkの最新リリースでは、Lakehouse、レポート、セマンティックモデル、SQL分析エンドポイント、Sparkの新モジュールが追加され、ワークスペース全体のエンドツーエンド操作が可能になりました。Lakehouseとテーブルの作成・管理、レポートのクローンと再バインド、セマンティックモデルの更新・監視、SQL・Spark設定の管理まで、幅広い操作をカバーしています。
複数のFabric APIがモジュール間で一貫して公開されるようになり、一般的なワークフローの簡素化とAPIの発見性が向上しました。サービスプリンシパル認証の信頼性向上やメジャー評価時の正確性改善などのバグ修正も含まれています。
活用シナリオを紹介する3本のデモ動画(データサイエンス向け、Power BI自動化向け、データエンジニアリング向け)も公開されています。
参考:Semantic Link 0.13.0のリリースノート
リアルタイムスコアリングエンドポイントの監視
デプロイ済みMLモデルのリアルタイムスコアリングエンドポイントに対する監視機能が追加されました。リクエスト量、エラー率、レイテンシをエンドポイントバージョン間で比較でき、改善効果の検証やリグレッションの早期検出が可能です。
導入状況のトラッキングから問題の診断、負荷時の一貫したパフォーマンス確保まで、MLモデルの本番運用に必要な監視がFabric内で完結します。ロールアウトやロールバックの意思決定を実際の使用データに基づいて行えるようになります。
データウェアハウス
データウェアハウスは、Fabric上でT-SQLベースの分析クエリを実行するためのサービスです。従来のSQL Server Data WarehouseやAzure SQL Databaseの操作感を維持しつつ、OneLake上のデータに対してスケーラブルなクエリ処理を提供します。Migration Assistantによる既存環境からの移行支援機能も含まれます。
2026年2月 - SQLプールInsightsほか1件

データウェアハウス領域では、パフォーマンス可視化と移行支援の2つのアップデートが行われました。
SQLプールInsights
個別クエリを超えたプールレベルのテレメトリを提供する新機能です。新しいシステムビュー queryinsights.sql_pool_insights により、ビルトインのSELECT・NON SELECTプールの状態変化、圧力イベント、構成変更、容量更新を時系列で追跡できます。
既存のQuery Insightsビューと組み合わせることで、プールレベルの圧力とクエリパフォーマンスの相関分析が可能になり、読み取り最適化ワークロードと書き込み最適化ワークロード間のリソース分離の検証にも活用できます。パフォーマンスのボトルネック調査やキャパシティプランニングに有効なシグナルを提供します。
移行サマリーのエクスポート
Migration Assistantの移行結果をExcelまたはCSV形式でダウンロードできるようになりました。エクスポートはバックグラウンドで実行されるため、Migration Assistantのウィンドウを閉じても処理が継続します。
Excel形式ではMigrated ObjectsとObjects To Fixの2シート構成で、組織の秘密度ラベルに準拠したMIPコンプライアンス対応です。エクスポートファイルには、オブジェクト名、オブジェクト型(テーブル、ビュー、関数、ストアドプロシージャ等)、変換状態、適用された調整内容やエラーメッセージ、エラー種別が含まれます。大規模な複数オブジェクト移行のプロジェクト管理や監査対応に活用できます。
参考:Migration Assistantの公式ドキュメント
2026年1月 - MERGE文GAほか3件
データウェアハウスでは、クエリパフォーマンスの最適化と主要機能のGA化を中心に4件のアップデートが行われました。

プロアクティブ統計リフレッシュ
Data WarehouseおよびLakehouse SQL Analytics Endpointの列統計の自動管理が強化されました。SELECTクエリ中に作成された列統計が、データ変更に応じてエンジン側でプロアクティブに更新されるようになります。
クエリのプラン生成時に統計メンテナンスが発生して実行時間が延びるケースが減少し、手動で統計を管理する必要がさらに少なくなりました。
参考:統計の公式ドキュメント
増分統計リフレッシュ
主にINSERTやADD操作が多いロングテーブルの列統計更新のパフォーマンスが向上しました。前回のリフレッシュ以降に追加された新しい行のみをサンプリングする増分モードが導入され、テーブル全体を再サンプリングする従来方式と比較して統計更新が高速化されます。
統計操作がSELECTクエリの実行時間に影響するケースで特に効果が大きく、大規模テーブルの運用コストを削減します。
参考:統計の公式ドキュメント
Result Set Cachingの一般提供(GA)
2025年にプレビュー公開されていたResult Set Cachingが正式リリースとなりました。繰り返し実行されるクエリのキャッシュ結果を即座に返すことで、元のクエリを再計算せずにパフォーマンスを向上させます。
デフォルトで有効化されており、チューニングや設定変更は不要です。Data WarehouseとLakehouse SQL Analytics Endpointの両方で利用可能な、即効性のあるパフォーマンスブースターです。
MERGE文の一般提供(GA)
2025年9月にプレビュー公開されていたMERGE文が正式リリースとなりました。INSERT・UPDATE・DELETEを1つのステートメントに集約でき、条件分岐ロジックとDMLアクションを単一文で表現できます。
既存のETLパイプラインで複数ステップに分けていたデータ変換処理をシンプルにまとめられるため、パイプラインの保守性と可読性が大幅に向上します。
参考:MERGE (Transact-SQL)のドキュメント
プラットフォーム全体
プラットフォーム全体カテゴリには、特定のワークロードに限定されないFabric基盤共通のアップデートが含まれます。OneLakeカタログ、テナント管理、Identity・ガバナンス、UI/UXの改善など、Fabricを利用するすべてのユーザーに影響する横断的な機能が対象です。
2026年2月 - OneLakeカタログ刷新ほか3件

プラットフォーム全体では、OneLakeカタログの機能拡充、ガバナンスの強化、開発者向けのUI改善が行われました。
OneLakeカタログでのWorkspace Apps対応
Workspace Apps(Apps V2)がOneLake CatalogのInsightsカテゴリに表示されるようになりました。組織アプリやレポートなどのビジネス向けコンテンツと並べて表示されるため、関連するインサイトを一つの場所で探索できます。
各Workspace Appのメタデータもカタログ上で確認でき、アプリの内容を理解してから直接開くことが可能です。この対応により、OneLake CatalogがMicrosoft Fabric内の全アイテムタイプを包含する中央カタログとなりました。
アイテム詳細ページの統合
OneLake Catalog内だけでなく、ワークスペースからセマンティックモデルを直接開いた場合などカタログ外でのアクセス時にも、統一された詳細ページが表示されるようになりました。
全OneLakeストアドデータアイテムの完全なスキーマ表示、アイテムレベルの系統図の可視化、権限管理、実行・更新履歴の監視が1ページに統合されています。これまで複数画面を行き来していたデータガバナンスの日常運用が1画面で完結します。
Fabric Identityテナント制限の管理
テナント内のFabric Identity(Workspace Identity)数の上限管理が大幅に改善されました。デフォルト上限が従来の1,000から10,000に10倍拡大されたほか、管理ポータルの「Developer settings」内の新しいテナント設定、またはUpdate Tenant Setting REST APIを使ってカスタム制限を設定できるようになりました。
設定を無効のままにすると上限10,000が適用されます。有効にして独自の値を設定することもできますが、その際は事前に組織のMicrosoft Entra IDサービス制限を確認しておくことを推奨します。上限を超える作成が試みられた場合は、明確なエラーメッセージが表示されます。
参考:Fabric Workspace Identityの公式ドキュメント
水平タブ表示設定
複数のアイテムやワークスペースをまたいで作業する開発者向けに、水平タブの表示方法を制御する設定が追加されました。任意のタブを右クリックして設定にアクセスできます。
「Full tab names」(常に完全な名前を表示)と「Adaptive truncated names」(スペースに応じて自動短縮)の2つのモードを選択でき、スペースが不足した場合はオーバーフローメニューでタブ一覧を確認できます。複雑なマルチタスクワークフローでのナビゲーション効率が向上します。
2026年1月 - OneLakeカタログ親子階層ほか8件
1月のプラットフォーム全体は最多の9件が更新されました。OneLakeカタログの構造改善、セキュリティAPI拡充、Git統合の柔軟化、Python SDKの公開など、Fabric基盤の成熟を示すアップデートが揃っています。また、MicrosoftがエージェントAIデータエンジニアリング企業のOsmos社を買収し、Fabric上での自律型データエンジニアリングの加速を発表しました。

セマンティックモデルのAI自動サマリー(プレビュー)
OneLakeカタログ上でセマンティックモデルの概要をAIが自動生成する機能がプレビュー公開されました。アイテムを開かずにメタデータと構造から高レベルのサマリーを生成し、不慣れなアイテムの理解や比較を効率化します。
カタログのExploreタブのクイックアクションまたはアイテム詳細ページから生成可能で、カタログに戻るたびに最新のサマリーを再生成できます。適切なCopilot容量と権限が必要です。
OneLakeカタログの親子階層表示
OneLakeカタログにアイテムの親子関係が構造的に表示されるようになりました。フラットなリスト表示ではなく、関連アイテムがグループ化されて適切な階層で表示されます。
例えばLakehouseには自動生成されたSQL Analytics Endpointが、EventhouseにはKQL DBがそれぞれ配下に表示されます。展開・折りたたみで表示を制御でき、類似名称のアイテム間の混乱を防ぎ、タスクに適したアイテムを素早く特定できます。
アイテム参照変数型(プレビュー)
Variable Libraryに新しい「Item Reference」変数型が追加されました。Fabricアイテムを文字列のハードコーディングではなく、構造化された参照として管理できます。ユーザーがアクセス権限を持つアイテムのみを参照可能で、アイテム名・型・ロケーションが明示的に表示されます。
CI/CDデプロイメント時にはターゲットステージの参照先の存在と権限が自動検証されます。Lakehouseショートカット、UDFコード、ノートブックコードで利用可能です。今後はConnection Reference型(外部接続管理)も追加予定です。
Git統合 - GitHub Enterprise Cloud データレジデンシー対応
FabricワークスペースがデータレジデンシーつきのGitHub Enterprise Cloud(ghe.com)インスタンスに接続できるようになりました。規制要件のある顧客がFabricのGit統合を利用可能になります。
参考:GitHub Enterprise Cloudデータレジデンシーサポートのドキュメント
Git統合 - スタンドアロンブランチへのコミット
最後の同期ポイントから新しいブランチを作成し、現在の変更をそのブランチにコミットする操作が1アクションで可能になりました。接続中のブランチにコミットせずに分岐でき、受信更新がある場合でも別ブランチにコミットできます。
コンフリクト処理、作業の分離、バックアップ、チームへの共有など、柔軟なブランチ運用が可能になります。
参考:Git統合のドキュメント
Fabric REST API Python SDK(プレビュー)
Microsoft Fabric REST APIのPython SDKがPyPI(microsoft-fabric-api)で公開されました。HTTPリクエストの手動構築や認証管理が不要になり、Pythonオブジェクトとメソッドでワークスペースの一覧取得、デプロイ自動化、CI/CDパイプラインへの統合などが行えます。
Azure Identityライブラリによる組み込み認証、REST API用の型付きクライアント、簡易シリアライゼーションを備えており、pip install microsoft-fabric-api でインストール可能です。
OneLakeセキュリティの粒度別API(プレビュー)
OneLakeのセキュリティロール管理用に、個別のGet・Create・Delete操作が可能な粒度別REST APIが追加されました。既存のバッチロールAPIに加え、ロールコレクション全体を送信せずに個別ロールを操作できます。
自動化フレンドリーなセキュリティワークフローの構築やCI/CDパイプラインへの統合が容易になります。大規模組織でのセキュリティ管理の柔軟性が向上します。
参考:OneLake Data Access Securityのドキュメント
OneLakeセキュリティのミラーアイテム対応
すべてのミラーアイテムタイプに対してOneLakeデータアクセスロールの定義が可能になりました。トランザクションシステムからOneLakeにレプリケーションされたデータに対して、テーブル・行・列レベルのきめ細かいロールベースセキュリティを適用できます。
データを一度ミラーリングし、ソースでアクセス制御を適用してから複製なしで安全に共有できるため、ガバナンスを簡素化しつつFabric全体で分析をスケールできます。
OneLake診断の不変ログ
OneLakeの診断イベントを不変(immutable)にできるようになりました。診断イベントを含むJSONファイルが、不変保持期間中に改ざんや削除ができなくなります。コンプライアンスや監査要件への対応力が向上します。
開発者ツール
開発者ツールカテゴリでは、VS Code拡張、Fabric CLI、Terraform Provider、MCP統合など、Fabric上での開発体験を向上させるツール群のアップデートが扱われます。IDE連携やCI/CD統合を通じて、Fabricの操作をローカル開発環境から行えるようにする機能が中心です。
2026年2月 - VS Code Copilot Chat連携

Fabric向けのVS Code拡張が大幅に強化され、3つの主要機能が追加されました。
ワークスペースフォルダの閲覧とアイテム定義の編集
VS Code上でワークスペース内のフォルダとその内容をドリルダウンして確認できるようになりました。アイテム定義はデフォルトでは読み取り専用ですが、拡張機能の設定から編集を有効にできます。変更を保存すると直接ワークスペースのFabricアイテムが更新されるため、破壊的変更に注意が必要です。
Fabric MCPサーバー統合
Fabric MCPサーバー拡張をFabricおよびGitHub Copilot Chat拡張と並行して有効にすることで、Fabricアーティファクトに対するCRUD操作、設計ドキュメントの生成、Microsoft Fabricドキュメントへの専用エージェントモードでのアクセスなど、Fabric特化のツールが利用可能になります。
Azure MCP Serverとの統合も含め、VS CodeからFabricリソースを操作する体験が大きく広がっています。
GitHub Copilot Chat連携
Fabricのアーティファクト・設計ドキュメント・公式ドキュメントにアクセスしながら、自然言語でKQLクエリやパイプライン設定、データ分析アーキテクチャの設計を相談できます。Fabricに不慣れなメンバーの学習コスト低減とチーム全体の生産性向上に効果的です。
まとめ
本記事では、Microsoft Fabricの2026年アップデートをカテゴリ別・月別に全項目解説しています。
2月は合計32件のアップデートが発表され、Data Factoryだけで12件と突出した更新量でした。モダン評価エンジンGAによるDataflow Gen2の基盤刷新、リアルタイムダッシュボードの大幅高速化、vNet対応による閉域ネットワークサポートなど、本番環境への即効性が高い改善が集中しました。1月は25件で、プラットフォーム全体(9件)を中心にOneLakeカタログの階層表示、セキュリティAPI拡充、MERGE文やResult Set CachingのGA化など、基盤の成熟とガバナンス強化が進みました。
特に以下の3点は早めに確認しておくことをおすすめします。
-
Data Factoryのモダン評価エンジン
今後の新機能はこのエンジンベースで提供されるため、既存のDataflow Gen2パイプラインの動作検証を早期に実施しておくことが重要です
-
リアルタイムインテリジェンスのvNet対応
クラスタープロビジョニング不要でプライベートネットワーク接続が可能になり、セキュリティ要件でFabric採用を見送っていた組織にとって再検討の材料になります
-
VS Code拡張のCopilot Chat連携とMCPサーバー統合
Fabricを日常的に触るチームでは有効化しておくことで、ドキュメント参照やクエリ構築の効率が大幅に向上します
本記事は毎月更新しています。最新のFabric動向をキャッチアップしたい方は、ブックマークしてご活用ください。各項目の詳細な手順やコード例については、公式Feature Summaryの各セクションに掲載されている「Learn more」リンクからMS Learnのドキュメントにアクセスできます。









