SNSで生成AIの作った曲が聞かれるようになって久しい今日この頃。
AIアーティストなるものも生まれてきていて進化が著しい限りです。
そんなAIの力を自分の創作活動に活かしていきたいと思ったけどなかなか先に進めずにいる方も多いのではないでしょうか?
「AIの力を何か導入したいなぁ…」
「けど、曲は自分で作って行きたいし…」
「ちょうど良い塩梅の使い方ないかなぁ…」
そんな皆さんに今回はSUNO AIのステム分離を使用したDTMについてお届けして行きます。
内容としては以下の3つです。
ステムをMIDIに変換
リアレンジしてみた
注意点
ステムをMIDIに変換
SUNOのステム分離精度
3曲をステム分離してみました。
それぞれ雰囲気やジャンルの違う楽曲で分離精度がどのように変わるか確認してみます。

最大12パート分離とのことですが、私がやってみた感じでは7〜9パートぐらいに分離されました。
そして出力はMP3とWAVが選べますが今回はMP3でやってみました。
WAVは多少高音質になる分、分離生成にかなり時間がかかっていたので今回は諦めました。
1.80年代テイストのレトロインスト
2.エネルギッシュなアンセムロック
3.柔らかなピアノとローファイ曲
いかがでしょうか?
各パートごとに多少の精度の違いこそあれど、音は聴き取れるし充分な使い心地ではないでしょうか?
ドラムなどはこのままサンプルとして使いたくなるぐらいですね。
ボーカルも非常に聴き心地よく進化しています。
曲全体としてボーカルの隙間を開けるためにボリュームの変化があったり、オケだけ聞いてみると意外とシンプルだったりというのは大きな発見でした。
MelodyneでMIDIに変換
今回はキーボードをMIDI変換します。
コード楽器はギターもあるのですがステムの分離精度やMIDI変換の難度の関係によりあまりお勧め出来ません。
耳コピをしたりDAWの機能を使ってコードを分析してみるのも良い方法でしょう。
以前書いた記事ですがStudio Oneのコード解析機能を紹介しています。

Melodyneで「ポリフォニック」のアルゴリズムで解析してもらったら、MIDIを書き出してDAWに戻すだけで簡単にMIDIに変換することができます。
無料の変換方法
調べてみると「Topmediai」というウェブツールでも出来るみたいです。
まぁ、DTMにAIを導入していくという趣旨なので恐らくご覧の皆様は何らかの方法をお持ちかと思いますが、念の為。
リアレンジしてみた
せっかくなので3曲目に作ったピアノボーカル曲をリアレンジしていきます。
ボーカルはそのまま使って他のパートを音源プラグインに置換していきます。
ドラムはUJAMのCOZYを使ってみたり、アコギは自分で弾き直したりなど。

ステム分離時には「Synth」として書き出されていたパッド系の音もストリングスの方が柔らかくて良いだろうと思いNIのストリングス音源にしました。

オートメーション等は全然書いておらずMIDIノートの位置などを調整しただけとなっています。
出来上がり
ボーカル入りと無しVerをそれぞれ比べてみました。
やはりSUNOは暖かさもありながら非常にバランスの取れたものでした。
そして、私の方はよりLo-Fi感を出しながら優しさを重視したアレンジになったと思います。
MIDIの調整やら、ギターの録音やら、バランス整えたりやらでなんだかんだ2時間ぐらいかかったような気がします。
それでも、ここまで自分が自由にできる余地がある曲は、AI曲といえどもかなり愛着が湧いてくるのでは無いでしょうか?
注意点
MIDIと音源は必ずしも一致しない
やってみて思ったのがピアノのサスティンペダルとかは当然考慮されていないので、MIDIノートが実音より長く伸びてきます。
また実録の音ではなく生成された音なのでMIDI変換がうまくいってないパターンもかなりあります。
それにより不自然に音が切れたり重なったりしてしまう部分があるので上手く調整しましょう。
私もリアレンジ中は原曲を聞き返して「こう鳴っているのか…じゃあこうアレンジしよう!」を繰り返していました。
MIDIと音源は必ずしも一致しないことを念頭においておけばかなりの作業スピードの向上が見込めます。
BPMを合わせる
これも当然なのですが、SUNO曲とBPMを合わせておいた方が楽に作業できます。
グリッドが適切な位置に無いだけでかなりやりづらいです。
もし可能であれば、楽曲を生成するタイミングで、BPMを指定しておくとその周辺で生成をしてくれるのでBPMを合わせるのが楽になります。
初歩的なことですが、見落とさずに調整しておきましょう。
ステムの見るべきポイント
構成楽器
パートごとの音色変化
副旋律のフレーズや伴奏
今回やってみて、各パートの担当音域がある程度棲み分けされていることの大事さを改めて感じました。
ベースがいる時にはピアノは中〜高音域を埋めて、ベースがいなくなると低音域を使う、とか。
構成楽器自体は多くなくても、各楽器の出し入れで曲の展開は作れる、とか。
伴奏はシンプルでもボーカルが入ると曲になるぐらい声の存在はデカい、とか。
ステムから学べることは正直かなり多いです。
もちろん、曲全体からインスピレーションを得ても良いし、ステムの1パート、例えば、ギターリフなどからガラッと作り替えても良いしと、汎用性はかなり高い気がします。
欲張ったことを言うなら、もっとドライで高音質なステム分離ができるようになれば、キックだけ抜いたり、ループサンプルとして使いやすくなるだろうなと感じます。
耳コピはプロの技を盗む大事な方法ですが、ステムを使ってのリアレンジは勉強にもなるし制作物にもなる一石二鳥状態です。
ぜひ、このような方法でのAI導入を試してみてください。
このブログ記事が、皆さんの音楽制作に役立つ情報を提供できることを願っています。
さらに詳しい情報や、ご意見ご感想があればぜひコメントをお待ちしています。