人気のテキストから画像へのAIモデル「Stable Diffusion」の共同開発で知られるスタートアップRunwayは、最近テキストプロンプトに基づいて短いビデオを生成できる新しい人工知能モデルを発表しました。
生成ニューラルネットワークはGen-2と呼ばれ、少数のテキスト入力に基づいて短いビデオを生成できます。AIアルゴリズムはゼロから3秒間のビデオクリップを生成します。ただし、ユーザーはアルゴリズムの手がかりとして画像をアップロードすることもできます。
さまざまな理由から、Gen-2は最初からオープンソースまたは広く利用可能にはなりません。代わりに、ユーザーはRunwayのDiscordを介してGen-2の待機リストにサインアップできます。
現在、Gen-1およびGen-2によって生成されたビデオには音がありません。Runway AIは、画像やビデオのみならずそれらに合った音を自動的に生成するシステムを作成することを目指して、音声生成に関する研究を行っています。