AI総合研究所

SHARE

X(twiiter)にポストFacebookに投稿はてなブックマークに登録URLをコピー

Runway Gen-3とは?使い方や料金、プロンプトのコツを徹底解説!

この記事のポイント

  • Runway Gen-3 Alphaは画質・一貫性・精巧さが大幅に向上した動画生成AIモデルで、Gen-4/Gen-4.5と並んで現在も利用可能
  • Motion Brush、Advanced Camera Control、Act-One、リップシンク、Image to Videoなど豊富な制御機能を搭載
  • プロンプトの構造(カメラワーク→シーン概要→詳細)を意識することで高品質な動画を生成可能
  • 料金はStandard $15/月〜。Gen-3 Alphaは10クレジット/秒、Gen-3 Alpha Turboは5クレジット/秒で利用可能
  • 有料プラン(Standard以上)で商用利用可能。ウォーターマークなしでコンテンツを生成・編集できる
坂本 将磨

監修者プロフィール

坂本 将磨

XでフォローフォローするMicrosoftMVP

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。


Runway Gen-3 Alphaは、Runway AIが開発した高品質な動画生成AIモデルです。2024年6月のリリース以降、Image to VideoやAct-One、Advanced Camera Controlなど数々の機能追加が行われ、現在もGen-4/Gen-4.5と並んで利用可能です。

本記事では、Runway Gen-3の主な機能やプロンプトのコツ、料金体系(2026年3月時点)、商用利用の条件まで網羅的に解説します。
後継モデルGen-4やGen-4.5との違いも比較しているので、用途に合ったモデル選びの参考にしてください。

「AIをマーケティングに活用したいけど、具体的な方法がわからない」とお悩みではありませんか?
AI Marketerなら、効率的なコンテンツ制作と多チャネル展開が簡単に実現できます。
AI Marketerの資料を見てみる

Runway Gen-3とは

Runway Gen-3 Alphaは、Runway AIが2024年6月に発表した動画生成AIモデルです。
2世代目にあたるRunway Gen-2に比べて、Gen-3は動画の画質・一貫性・精巧さが大幅にパワーアップしています。

2025年4月にはGen-4、同年12月にはGen-4.5がリリースされていますが、Gen-3 Alpha/Alpha Turboは現在も利用可能であり、クレジット消費が少ない点から用途によってはコストパフォーマンスに優れた選択肢です。

https://www.youtube.com/watch?v=nByslCkykj8


また、Runwayのメイン機能である「Motion Brush」や「Advanced Camera Control」にも改良が加えられており、より複雑なシーンの生成シネマティックな動きなどに対応できるよう設計されています。

こちらはサンプルとして弊社が実際に生成した動画になります。

生成AI特有の破綻が全くなくなった訳ではありませんので、その部分も確認いただけたらと思います。

https://youtu.be/zkQg_3cu06Y

モーニングルーティーン動画サンプル


例えば、

  • 4秒頃の顔の回転に対して顔が見えにくい
  • 時計の部分
  • その後のブラシを当てる箇所が耳に近い
  • パンの横にある植物が浮いている
    などが挙げられます。

画像生成研修


Runway Gen-3の主な機能

Runway Gen-3 Alphaの主な機能としては、以下の6つが挙げられます。

  1. 改良されたMotion Brush
  2. Advanced Camera Control(旧ディレクター・モード)
  3. プロンプトによる細かい制御
  4. リップシンク
  5. Image to Video(画像から動画を生成)
  6. Act-One(表情キャプチャによるアニメーション生成)


プロンプトの作成のコツなど詳細を説明していますのでぜひご覧ください。

Motion Brush

Motion Brushとは、画面内の特定の箇所をブラシでこするように塗りつぶすことで、その範囲だけに動き(Motion)をつけることができる機能を指します。

以下の動画はRunway公式が「Gen-2」のMotion Brush機能を紹介する際に公開されたものです。

Gen-3 Alpha Turboでは、このMotion Brushの精度がより高度になった形で実装されています。さらに2024年11月には「Advanced Camera Control」が追加され、シーン内でのカメラ移動方向と強度を自由に指定できるようになりました。

https://www.youtube.com/watch?v=NlY-x6jkYaI&t=4s

イメージ動画

ディレクター・モード

「Gen-2」には「ディレクター・モード」という設定項目がありました。この項目を操作することで、生成された動画にダイナミックなカメラワークを付与することが可能になります。

Runway_directormode
ディレクター・モードの操作画面

上記画像における黄色い枠に囲った部分が「操作バー」です。これらを組み合わせることで、ビデオ内でのカメラの動き、強度、速度を操作できます。

一般的に、数多ある動画生成AIサービスでは、高画質でリアルな映像を出力してくれるものの、その映像がどのようなカメラワークを行うかは、細かくプロンプトで指定するしかありませんでした。
そのため、意図したカメラワークを行えず、ある種の偶然性に身を任せるような部分がありました。

しかしその一方で、「Runway」では「ディレクター・モード機能」があることで、生成される動画の「見せ方」に大きく介入できるようになります。

Gen-2の「ディレクター・モード」は、Gen-3では「Advanced Camera Control」として進化しました。2024年11月のアップデートで追加されたこの機能では、移動方向と強度を自由に選択でき、パン、ズーム、トラッキングショットなど多彩なカメラワークをGUI上で直感的に指定できます。

プロンプトによる細かい制御

Gen-3 Alphaは「Text to Video」と「Image to Video」に対応しており、テキストプロンプトまたは画像からの動画生成が可能です。
特にプロンプトの意図を理解して動画へ反映させる力が高く、適切なプロンプト構造を意識することで狙い通りの映像を生成できます。

Runway公式が公開しているプロンプトガイドラインでは、プロンプトのキーワードや構造など、効果的に動画を生成するためのプロンプトのコツが掲載されています。

項目 説明
カメラの動き カメラの動きやアングルについて説明します。 低角度静止ショット
シーンの概要 シーンの主要な内容を記述します。 カメラがオレンジ色の服を着た女性を見上げるように角度をつけ、色鮮やかな植物が生い茂る熱帯雨林に立っています。
追加の詳細 シーンの追加情報や特別な要素を記述します。 空は曇り、灰色です。

サンプルプロンプト

タイプ プロンプト例
シームレスなトランジション 連続したハイパースピードFPV映像: カメラが氷河の峡谷をシームレスに飛び抜け、夢のような雲の風景へと移行します。
カメラの動き 夜の発光する海: 夜の発光する生物が水中にいる。カメラは発光するクラゲのマクロクローズアップから始まり、その後、様々な発光色で照らされた海全体を星空の下で映し出します。カメラの動き:クラゲのマクロショットから始まり、ゆっくりと引いて上に移動し、発光する海を見せます。
テキストタイトルカード 動的な動きのあるタイトル画面: シーンはカラフルなペンキで覆われた壁から始まります。突然、黒いペンキが壁に流れ、「Runway」という言葉を形成します。滴るペンキは詳細でテクスチャがあります。中央に配置され、優れたシネマティックライティングが施されています。

プロンプトキーワード

キーワードは、特定のスタイルを出力に反映させるために役立ちます。
キーワードがプロンプト全体と一貫していることを確認することで、その効果がより顕著になります。

シーンの種類 キーワードの例
クローズアップショット 肌の質感、詳細なディテール
ワイドショット 環境の詳細、風景の広がり
動的なシーン ハイパースピード、シームレスなトランジション
シネマティック 劇的な照明、シネマティックライティング


以下の画像は、URLへと飛んだ先のページのスクリーンショットです。
黒い線の枠の中で、「Keyword」に対してどのような「Output」が出力されるかの見本がたくさん載せられています。

Gen-3 プロンプト
プロンプトのキーワード - その⑴

Gen-3 プロンプト.2
プロンプトのキーワード - その⑵


リップシンク

gen-2に比べて、リップシンクも大幅に進化しています。
そもそもリップシンク(リップ・シンクロナイゼーションの略称)とは、「映像内の口元の動き」と、「流れている音声の言葉」が一致している状態のことを指します。

アップデート以前のGen-2の状態においても、リップシンクのクオリティは高かったと言えます。
しかしながら遠方の人物の口元だけを正確に動かしたり、横顔の状態にある人物の口元を動かすことは難しかったようです。

今回のアップデートでは、そういった障壁もクリアし、より質の高いリップシンクが実現されています。
これによって、動画生成AIだけで映画やMVなどを作成することも、より現実味を増してきていると言えます。

「リップシンク」の機能は、生成した動画の左下にあります。

リップシンク
リップシンクのボタン

「リップシンク」のボタンを選択すると、音の素材をどのようにつくるかの選択をすることができるようになります。
録音するか、テキストで音声を生成するか、音声ファイルを入力するか、の3択で音素材の選択ができます。

素材が用意でき次第、「Generate Lipsync」を選択することで、リップシンク動画が生成されます。


Image to Video

Runway gen3の最新アップデートとして、Gen-3 Alpha Image to Videoが登場しました。この新機能により、静止画から動画を生成することが可能になります。

通常の動画生成(Text to Image)と同様に、テキストプロンプトを追加することで、より詳細な指示を与えることも可能です。
【関連記事】Image to Videoの使い方

【主な特徴】

  • 1280x768ピクセルの固定解像度で動画を生成
  • 5秒または10秒の動画長を選択可能(デフォルトは10秒)
  • 生成された動画へのリップシンク(口の動きの同期)機能
  • 画像アップロード後のオプションテキストプロンプト入力


Runwayの動画生成モデル比較(Gen-3 vs Gen-4 vs Gen-4.5)

以下は、Runwayの動画生成AIモデルの主な違い一覧です。Gen-3の位置づけを理解するうえで、後継モデルとの比較が参考になります。

特徴/機能 Gen-3 Alpha Gen-3 Alpha Turbo Gen-4 Gen-4.5
リリース時期 2024年6月 2024年8月 2025年4月 2025年12月
動画の長さ 最大40秒(拡張機能) 最大10秒 最大10秒 最大10秒
生成方法 Text to Video、Image to Video Text to Video、Image to Video Text/Image to Video Text/Image to Video
クレジット消費 10クレジット/秒 5クレジット/秒 12クレジット/秒 25クレジット/秒
生成速度 標準 Gen-3の約7倍 高速 標準
カメラ制御 Motion Brush、Advanced Camera Control Advanced Camera Control Advanced Camera Control Advanced Camera Control
特徴 高品質・拡張対応 高速・低コスト 物理シミュレーション向上 最高品質・リアリズム


Gen-3 Alphaはクレジット消費が最も少ないモデルの一つであり、大量の動画を生成する場合やコストを重視する場合に適しています。一方、最高品質を求める場合はGen-4.5、バランス重視ならGen-4が選択肢となります。

なお、SoraKling AILuma AIVeo 3など競合サービスとの比較については、動画生成AIまとめ記事も参考にしてください。


Runway Gen-3の使い方

ここからは実際に手を動かしながら「Runway Gen-3」の使い方を確認していきます。

まず、Runwayを使うにはアカウント登録が必要です。下記URLからRunwayのWebページへとアクセスし、ログインしましょう。
Runway公式ページ

ログインが完了すると、このようなページに案内されます。画面中央にある「Get started」を選択しましょう。

runway gen-3 ログインページ
トップページ


「Get started」を選択すれば、動画生成画面へと遷移します。
下記画像にあるように、画面の機能は大きく3つの要素で成り立っています。

画面向かって一番左(1)では、「Prompt入力画面」「設定画面」などが選択でき、その選択が画面中央(2)に反映されます。一番右は、生成された動画が表示されるようになっています。

操作画面
動画生成画面


画面中央のプロンプト欄に文章を入力していきましょう。ここでは、以下のプロンプトを入力しました。

Low angle static shot: The camera is angled up at a woman wearing all orange as she stands in a tropical rainforest with colorful flora. The dramatic sky is overcast and gray.

プロンプトの入力
プロンプトの入力


ポイントは、プロンプトの冒頭に「カメラワークについての記述」を置き、その後に「カメラを主語に、どのような光景が写っているのか」を詳しく記載することです。

漠然としたプロンプトでとりあえず生成してみるのであれば話は別ですが、狙った動画を生成するにはある程度のプロンプトの具体性が必要になってきます。

下にあるように「4W1H」を意識すると作りやすいのでおすすめです。

・いつ
・どこで
・誰が
・何を
・どのように

Image to Videoの使い方

トップページ左側のツールバーから、「Text/Image to Video」を選択します。
Runway gen3 Image to Videoの使い方

2.次のような画面が出るので、使用したい画像をアップロード・選択します。
素材画像を選択

3.画像を選択したら、必要に応じてプロンプトを入力します。
加えて、生成する動画の秒数(5秒もしくは10秒)を選択します。

生成動画の設定

4.「Generate」ボタンを押すと、画面右側に動画が生成されます。
生成された動画は保存が可能です。

生成完了


Runwayの料金プラン(2026年最新)

Runway Gen-3 Alphaを含む各モデルの利用料金は以下のとおりです。Freeプランでも125クレジット(初回のみ)が付与されますが、Gen-3 Alphaの利用にはStandard以上のプランが必要です。

プラン 月額料金 年間プラン(月額換算) クレジット/月 Gen-3 Alpha
Free $0 - 125(初回のみ) -
Standard $15 $12 625 利用可能
Pro $35 $28 2,250 利用可能
Unlimited $95 $76 無制限 利用可能
Enterprise 要問合せ 要問合せ カスタム 利用可能

年間プランを選択すると約20%の割引が適用されます。Enterpriseプランでは、カスタムクレジット配分、SSO、専用サポート、APIアクセスなどが提供されます。


クレジットの消費量や、機能ごとの費用感については機能ごとのクレジット消費量をご覧ください。

決済方法の一覧
  • クレジットカードまたはデビットカード
  • Amazon Pay(アマゾンペイ)
  • Apple Pay(アップルペイ)
  • アリペイ
  • Cash App Pay(現金払い)
  • WeChatペイ

runway_gen3の料金
(参考:Runway)

クレジットの追加購入

「Standardプラン」および「Proプラン」では、「プランごとにあらかじめ付与されるクレジット(先述の料金表参考)」に加えて、1000クレジットあたり$10で追加購入が可能です。(Freeプランは不可)

runwayの追加クレジット
追加クレジットの購入

機能ごとのクレジット消費量

それぞれのモデル(Genシリーズ)ごとのクレジット消費は以下の通りです。モデルによって1秒あたりの消費クレジットが大きく異なるため、用途とコストのバランスを考慮してモデルを選択することが重要です。

モデル クレジット消費/秒 10秒動画の消費
Gen-3 Alpha 10クレジット 100クレジット
Gen-3 Alpha Turbo 5クレジット 50クレジット
Gen-4 12クレジット 120クレジット
Gen-4 Turbo 5クレジット 50クレジット
Gen-4.5 25クレジット 250クレジット

Gen-3 Alpha Turboは5クレジット/秒と最もコストパフォーマンスに優れたモデルの一つです。Standardプランの625クレジットで計算すると、Gen-3 Alpha Turboなら約125秒分、Gen-4.5なら約25秒分の動画を生成できます。

世代ごとのクレジット消費量
参考:Runwayヘルプセンター


Runway Gen-3の商用利用について

Runway Gen-3の商用利用は無料プランと有料プランで条件が異なり、著作権や責任の所在にも注意が必要です。

商用利用を含むすべての利用は、Runwayの利用規約に従う必要があります。利用規約に違反した場合、アカウントの停止や強制退会の可能性があるため、注意が必要です。

プラン別の利用条件

Runwayの全てのプラン(無料、Standard、Pro、Unlimited)で、生成または編集したコンテンツの商用利用が可能です。

ただし、ウォーターマークの有無に違いがあります。

【無料プラン】
生成されたコンテンツにRunwayのウォーターマークが付与されます。

【有料プラン】
ウォーターマークなしでコンテンツを生成・編集でき、商用利用が可能です。

著作権について

著作権に関しては、「ユーザー側が生成したコンテンツに対して著作権を保持」します。

ただし、Runwayも生成されたコンテンツに対して一定の権利を有します。具体的な権利の範囲は利用規約に定められています。著作権侵害に関する申し立ては、Runwayの著作権エージェントに連絡する必要があります。

【ユーザーの権利】

  • 生成したコンテンツの著作権を保持
  • 商用利用を含む自由な使用が可能

【Runwayの権利】

  • コンテンツの所有権は主張しない
  • AIモデルの改善のために、入力(プロンプト)と出力(ユーザーの生成物)を使用する権利あり
  • 非独占的で広範な利用ライセンスを保有

エンタープライズプランの場合

組織が「Runway Enterprise Services」を利用する場合は、別途「Enterprise Services Termsが適用されます。
この条件は、通常の利用規約とは内容が異なる可能性があるため、確認が必要です。

Runway Gen-3を商用利用する際は、これらの点を十分に理解し、適切なプランを選択することが重要です。また、著作権や利用規約に関する疑問がある場合は、Runway社に直接問い合わせることをお勧めします。


Runwayのアップデート情報・最新ニュース【随時更新】

Runwayはテキストや画像からの動画生成、モバイル対応の強化、プロフェッショナル向け機能の拡充など、多岐にわたる機能追加により、AIによる動画制作の可能性を大きく広げています。ここではGen-3関連のアップデートに加え、後継モデルの主要リリース情報もあわせて紹介します。

Gen-3 Alpha Text to Videoがだれでも利用可能に (2024/7/2)

テキストから高品質な動画を生成できるGen-3 Alpha Text to Video機能が一般公開されました。高忠実度で高速、そして制御可能な動画生成の新時代の幕開けです。

この革新的な機能により、プロフェッショナルからビギナーまで、誰もが直感的に動画制作に取り組めるようになりました。

Runway iOSアプリでGen-3 Alphaが利用可能に (2024/7/17)

Runway iOS アプリでGen-3 Alphaが利用可能になりました。
プロンプト入力から生成過程の視聴まで、ユーザー体験を一新し改善。いつでもどこでも、直感的なインターフェースでAI動画生成が可能になりました。

Gen-3 Alpha Image to Videoをリリース (2024/7/30)

Gen-3 Alpha Image to Video機能がリリースされ、クリエイティブの可能性が大きく広がりました。
任意の画像を動画の最初のフレームとして使用でき、単独での使用はもちろん、テキストプロンプトと組み合わせることで、さらに詳細な制御が可能になりました。

この主要なアップデートにより、生成される動画の芸術性とコンシステンシーが大幅に向上しています。

Gen-3 Alpha Turboが登場 (2024/8/1)

高品質な動画生成の新たな時代を切り開くGen-3 Alpha Turboが開発されました。オリジナルのGen-3 Alphaと同等の品質を保ちながら、生成速度を7倍に向上。

大幅な価格引き下げと無料ユーザーへの提供も開始され、Image to Video機能でもこの高速化が実現しています。ほぼリアルタイムでのインタラクティブな動画生成を可能にし、効率性の新たな基準を確立しました。

フレーム指定機能が追加 (2024/8/5)

Gen-3 Alpha Image to Videoの機能が進化し、入力画像を動画の最初または最後のフレームとして使用できるようになりました。この機能は単独での使用も、テキストプロンプトと組み合わせての使用も可能です。

特に最終フレームとしての画像指定により、目的のシーンに向かって自然に展開する動画生成が実現しました。

Runway iOSアプリにInspiration Feedが登場 (2024/8/9)

iOSアプリに新機能「Inspiration Feed」が登場し、全ユーザーが利用可能になりました。

他のユーザーの生成作品とそのプロンプトを閲覧できる機能により、新しいアイデアの発見や既存のアプローチの見直しが容易になりました。さらに、ユーザー自身の作品を投稿することで、コミュニティへの貢献も可能です。

Gen-3 Alpha Turbo Image to Videoが利用開始 (2024/8/15)

Gen-3 Alpha Turbo Image to Videoの提供が開始され、生成速度は7倍に向上、価格は半額に設定されました。品質を維持しながらこの革新を実現し、無料ユーザーを含むすべてのプランで利用可能になっています。

さらなるモデルの改善、制御メカニズムの向上、リアルタイムでのインタラクション強化も計画されています。

Gen-3 Alpha Turbo 終了フレーム指定に対応(2024/8/20)

Gen-3 Alpha Turboが進化し、入力画像を動画の最後のフレームとして使用できるようになりました。高速生成を維持しながら、目的のシーンに向かって展開する動画制作が可能になっています。

Gen-3 AlphaのiOSアプリでImage to Videoが利用可能に (2024/8/20)

Gen-3 Alpha の Image to Video機能がiOSアプリでも利用可能になりました。場所を問わず、スマートフォンから直感的な動画生成が実現します。

Gen-3 Alpha 生成時間を40秒まで拡張(2024/8/31)

Gen-3 Alpha Extensionsの導入により、全ユーザーが最大40秒までの動画生成が可能になりました。より長尺のストーリー性のある動画制作の可能性が広がっています。

Runway APIを公開 (2024/9/16)

Runway APIが公開され、開発者がGen-3 Alpha Turboを自社のアプリケーションや製品に統合できるようになりました。
Omnicomなどの戦略的パートナーがすでに採用しており、APIの利用申請の受付が開始されています。

既存動画をガイドとした生成機能の実装 (2024/9/19)

Gen-3 Alphaに革新的な機能が追加され、既存の動画をガイドとして使用した新しい動画生成が可能になりました。

入力した動画の形状や動きを維持しながら、テキストプロンプトで新しいスタイルに変換できます。クリエイターの意図をより正確に反映した動画制作が実現します。

縦型ビデオがGen-3 Alpha Turboですべてのユーザーが利用可能に (2024/9/21)

Gen-3 Alpha Turboで縦型動画の生成が可能になり、全ユーザーが利用できるようになりました。

SNSやモバイルコンテンツに最適化された動画制作の幅が広がります。

Gen-3 Alpha Turboが大幅アップデート (2024/9/28)

Gen-3 Alpha Turboが大幅なアップデートを実施。縦型動画の生成やVideo to Video機能の実装により、より迅速な制作フローが実現しました。
表現力と忠実度の向上に焦点を当てた追加アップデートも予定されています。

Gen-3 Alpha Turboで開始・終了フレームの同時指定が可能に (2024/10/9)

Gen-3 Alpha Turboで、動画の最初と最後のフレームを同時に指定できるようになりました。

横型・縦型どちらのアスペクト比でも利用可能で、全ユーザーがウェブから使用できます。より緻密なストーリーテリングと制御が実現します。

Act-One機能がリリース (2024/10/23)

Gen-3 Alphaに革新的な新機能「Act-One」が登場。モーションキャプチャやキャラクターリギングを必要とせず、1本の動画だけで豊かな表現力を持つアニメーションを生成できます。

従来の表情アニメーションが必要としていた複雑な多段階のワークフローを一新。スマートフォンで撮影した1本の動画から、様々なキャラクターデザインやスタイルへの展開が可能です。
視線、微細な表情、演技のペース、感情の機微まで、入力された演技の本質を忠実に生成結果に反映。
さらに、多様なカメラアングルやフォーカル長での撮影にも対応し、シネマティックでリアリスティックな表現を実現します。
Act-Oneは段階的にユーザーへの提供を開始。近日中に全ユーザーが利用可能になる予定です。

Advanced Camera Control機能が追加 (2024/11/1)

Gen-3 Alpha Turboに Advanced Camera Control機能が追加されました。シーン内での移動方向と強度を自由に選択でき、より意図的なショット作りが可能になります。

【主な撮影テクニック】
・被写体を中心に弧を描くようなパン&横移動
・ロケーションを探索するような横移動とパンの組み合わせ
・様々なカメラワークとスピード変化を組み合わせたループ映像
・劇的なズームイン/アウトによる空間表現
・シーンをゆっくりと横断するトラッキングショット
・新しい文脈やストーリーを明らかにする引きの演出

すべてのテクニックがGen-3 Alpha Turboで即座に利用可能です。

Expand Video機能をリリース (2024/11/23)

動画のアスペクト比を変更できる新機能「Expand Video」が登場。入力された動画の周囲に新しい領域を生成することで、異なるアスペクト比への変換を実現します。

テキストプロンプトやガイド画像を使用して予期せぬ展開を作り出すことが可能で、複数回の拡張を組み合わせることで、ドラマチックなクラッシュズームやプルアウトリビールなども実現。
静止画のような映像から、シネマティックなカメラワークを生み出すことができます。

この機能はGen-3 Alpha Turboで段階的に展開され、近日中に全ユーザーが利用可能になる予定です。

Frames: 高度なスタイル制御を可能にする新しい画像生成モデルが登場 (2024/11/25)

革新的な画像生成の基盤モデル「Frames」がリリースされました。このモデルは、スタイリスティックな制御と視覚的な忠実度において大きな前進を遂げています。

Framesを使用することで、クリエイターは非常に具体的な視点と美的特徴を持つ世界を構築することが可能になりました。特に、作成したい世界の外観、質感、雰囲気を精密にデザインできる点が特徴です。

Gen-4がリリース(2025/4/1)

Runwayの次世代モデル「Gen-4」がリリースされました。物理シミュレーションの向上により、より自然な動きと質感の表現が可能になっています。クレジット消費は12クレジット/秒で、Gen-3 Alphaからの品質向上が顕著です。

Gen-4 Turboがリリース(2025/4/7)

Gen-4の高速版「Gen-4 Turbo」がリリースされました。5クレジット/秒という低コストで、Gen-4品質に近い動画を高速に生成できます。Gen-3 Alpha Turboと同じコスト感で、品質が大幅に向上しています。

Workflows機能がリリース(2025/10/24)

複数のAIツールを組み合わせて自動化できる「Workflows」機能がリリースされました。動画生成、画像処理、エフェクト適用などを一連のパイプラインとして構築でき、制作効率が大幅に向上します。

Gen-4.5がリリース(2025/12/11)

Runwayが「世界最高の動画生成モデル」と位置づける「Gen-4.5」がリリースされました。25クレジット/秒と最もコストが高いモデルですが、リアリズムと表現力において最高水準を実現しています。

Text-to-Speech機能が追加(2025/12/18)

Runway上で直接テキストから音声を生成できる「Text-to-Speech」機能が追加されました。動画にナレーションや音声を付ける作業がRunway内で完結するようになりました。

サードパーティモデルに対応(2026/2/20)

Kling 3.0やSora 2 Proなど、他社の動画生成モデルもRunwayプラットフォーム上で利用可能になりました。ユーザーは用途に応じて最適なモデルを選択できるようになっています。

AI駆動開発

生成AI活用事例を知りたい方へ

生成AI活用事例集

画像・動画生成AIの導入事例集

Stable Diffusion、Midjourney、Runway等の最新生成AIツールを活用した企業の導入事例や、実務での活用方法をまとめた資料を無料でダウンロードいただけます。


まとめ

本記事では、Runway Gen-3 Alphaの特徴や機能、使い方、料金体系、商用利用の条件について解説しました。

Gen-3 Alphaは2024年6月のリリース以降、Motion BrushやAdvanced Camera Control、Act-One、Image to Videoなど数多くの機能が追加されてきました。2025年にはGen-4やGen-4.5といった後継モデルもリリースされましたが、Gen-3 Alpha Turboは5クレジット/秒という低コストで利用でき、大量の動画を効率的に生成したい場面では依然として有力な選択肢です。

動画生成AIは急速に進化しており、Runwayプラットフォーム上ではサードパーティモデルの統合やWorkflows機能など、制作環境全体の拡充が進んでいます。用途や予算に応じてGen-3/Gen-4/Gen-4.5を使い分けることで、AIによる動画制作の可能性を最大限に活用できるでしょう。

監修者
坂本 将磨

坂本 将磨

Microsoft MVP・AIパートナー。LinkX Japan株式会社 代表取締役。東京工業大学大学院にて自然言語処理・金融工学を研究。NHK放送技術研究所でAI・ブロックチェーンの研究開発に従事し、国際学会・ジャーナルでの発表多数。経営情報学会 優秀賞受賞。シンガポールでWeb3企業を創業後、現在は企業向けAI導入・DX推進を支援。

関連記事

AI導入の最初の窓口

お悩み・課題に合わせて活用方法をご案内いたします
お気軽にお問合せください

AI総合研究所 Bottom banner

ご相談
お問い合わせは
こちら!