楽器を演奏・録音したり、DAWでソフトウェア音源にMIDIを打ち込んだりしなくても、音楽を制作できるようになる日が来るのかもしれません。
Googleが、「MusicLM: Generating Music From Text」と題した論文を、1月26日に米・コーネル大学が運営するWebサイト・arXiv.orgに投稿。
テキストから音楽を生み出すAIモデル「MusicLM」を発表しました。
「MusicLM」は、例えば「歪んだギターリフに支えられた、落ち着いたバイオリンのメロディ」という記述から、従来のAIモデルよりもその内容に準じた、よりクオリティの高い24kHzの数分間の音楽を作編曲できるようです。
「印象的なサックスソロとソロシンガーによる魅惑的なジャズソング」や「低いベースと強いキックによるベルリン90年代のテクノ」のような複雑な記述から、音楽を生成できるようにしたといいます。
または、テキストの記述と鼻歌や歌声・口笛・楽器の演奏などメロディの両方を元に音楽を生成すること。
さらに、「瞑想する時間(15秒)・目覚めの時間(15秒)・走る時間(15秒)・100%の力を発揮する時間(15秒)」といったストーリー性のある記述から、その内容を反映した音楽を生み出せるようにしたとのことです。
プロクオリティの音楽!……とまではいかない(特にミキシング・マスタリングの観点からはかなり粗い)ものの、テキストから作編曲されたとは思えないクオリティです。
iZotopeのマスタリング用ソフト「Ozone」や、ミキシング用ソフト「Neutron」をはじめ、AIによる音楽制作支援ツールが台頭する昨今。「MusicLM」を一般に使用できるようになれば、音楽を制作する際のラフスケッチ(下書き)などに使用するケースも出てくるかもしれません。
なお、現在の「MusicLM」には、著作権などの法律的な観点を含む「誤って流用される可能性があるというリスク」を孕んでいるとしており、Googleは一般公開を見送っています。
Googleが、「MusicLM: Generating Music From Text」と題した論文を、1月26日に米・コーネル大学が運営するWebサイト・arXiv.orgに投稿。
テキストから音楽を生み出すAIモデル「MusicLM」を発表しました。
「MusicLM」は、例えば「歪んだギターリフに支えられた、落ち着いたバイオリンのメロディ」という記述から、従来のAIモデルよりもその内容に準じた、よりクオリティの高い24kHzの数分間の音楽を作編曲できるようです。
複雑な文章から音楽を生む「MusicLM」
論文によれば、「MusicLM」は、500万個の音楽ファイルを含むデータセット(合計28万時間)を学習。「印象的なサックスソロとソロシンガーによる魅惑的なジャズソング」や「低いベースと強いキックによるベルリン90年代のテクノ」のような複雑な記述から、音楽を生成できるようにしたといいます。
または、テキストの記述と鼻歌や歌声・口笛・楽器の演奏などメロディの両方を元に音楽を生成すること。
さらに、「瞑想する時間(15秒)・目覚めの時間(15秒)・走る時間(15秒)・100%の力を発揮する時間(15秒)」といったストーリー性のある記述から、その内容を反映した音楽を生み出せるようにしたとのことです。
Google「誤って流用されうる」一般公開は見送り
「MusicLM」から生まれた音楽は、現在Google ResearchのGitHubで試聴可能(外部リンク)。プロクオリティの音楽!……とまではいかない(特にミキシング・マスタリングの観点からはかなり粗い)ものの、テキストから作編曲されたとは思えないクオリティです。
iZotopeのマスタリング用ソフト「Ozone」や、ミキシング用ソフト「Neutron」をはじめ、AIによる音楽制作支援ツールが台頭する昨今。「MusicLM」を一般に使用できるようになれば、音楽を制作する際のラフスケッチ(下書き)などに使用するケースも出てくるかもしれません。
なお、現在の「MusicLM」には、著作権などの法律的な観点を含む「誤って流用される可能性があるというリスク」を孕んでいるとしており、Googleは一般公開を見送っています。
この記事どう思う?
関連リンク
0件のコメント