Stable DiffusionやStable DoodleなどのAI駆動イメージジェネレーターで有名なStability AIが、最新作Stable Audioで音楽の世界に足を踏み入れました。

Stable Audioは、その画像中心の対応物に類似した拡散モデルで駆動され、テキストの説明に基づいて音声クリップを作成できます。ユーザーはキーワードを提供し、希望する期間を指定して結果を待ちます。

Stable Audioの特長は、テキストメタデータで開始および終了の時間を示した音楽に基づいてトレーニングされた革新的なモデルのおかげで、さまざまな長さの音楽を生成する適応性にあります。

Stable Audioの背後にあるデータセットは、音楽、音響効果、楽器ステムを含む80万以上の音声ファイルで構成されており、ユーザーに広範な音楽的創造のキャンバスを提供します。生成された音声は、サブスクリプションなしでは商業目的で使用できないことに注意が必要です。

Stable Audioは主にプロのミュージシャンよりもコンテンツ制作者を対象としていますが、その潜在的な用途は広く、ポッドキャストやビデオのバックグラウンドミュージックの作成からユニークなサウンドスケープの作成に至るまで多岐にわたります。

Runway、新しいビデオ生成用AIモデルを発表
人気のテキストから画像へのAIモデルStable Diffusionの共同創設者として知られるスタートアップRunwayが、テキストプロンプトに基づいて短いビデオを生成できる新しい人工知能モデルを最近発表しました。

このツールは3つのモデルで提供されており、無料版は月に最大20曲、各45秒間の作成が可能で、$11.99の月額プロフェッショナルサブスクリプションではユーザーは90秒までのトラックを500曲作成でき、エンタープライズオプションでは企業が使用量と価格を調整することができます。