なんか、すごい最新論文を見つけました

2018/5/21に発表されたfacebookの研究です。

オーディオデータを入力したら、別の楽器演奏になって出力される・・・

 

先にデモがあるので聴いてみてください。

 

すごくないですか?

まぁまだ不自然なところもありますが、チューニングとか突き詰めていくと、もっと良くなっちゃいそうです。

 

DTMerからすると、MIDIデータに音を割り当てなおせばいいだけでは、と思うかもしれませんが、ポイントは、オーディオデータでできちゃうってことです。

つまりDTMをしない人、音楽わからない人でも、自由自在に、違う楽器演奏に変換できちゃうんです。

 

うーむ。怖い時代が来たものです

 

論文は以下の通りです。

“A Universal Music Translation Network”  Noam Mor, Lior Wolf, Adam Polyak, Yaniv Taigman

https://arxiv.org/abs/1805.07848

 

いろんな楽器の曲を中間表現に変換するネットワークと、中間表現からいろんな楽器の曲に変換するネットワークを学習するみたいで、この中間表現に楽器の成分を削るのがポイントの様です。

口笛から、口笛成分を取り除いた中間表現を作って、そこにギター成分を載せてしまう様なイメージですかね。

敵対的学習ってやつらしいです。よく分かりませんが。

 

音楽のAI技術について興味のある方は、以前のブログもぜひご覧ください♪

参考:以前のブログ「世界トップクラスAI研究者にAI作曲の将来について聞いてみた! https://goo.gl/PccBZn」

 

最後まで読んでいただいた皆様ありがとうございました。

 

このエントリーをはてなブックマークに追加
Please follow and like us:
カテゴリー: ITと音楽

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です