生成系AI

【SUNO Studio】じゃなくても、SUNO AIのステム分離を作曲家はこう使う!DTMとAIを繋げる未来的な共作方法について徹底解説!

記事内に商品プロモーションを含む場合があります

あばん
あばん
音楽生成AIってどう使えば良いんだよ…
もーだん
もーだん
出来上がった曲をそのまま出したくないしなぁ。

SNSで生成AIの作った曲が聞かれるようになって久しい今日この頃。
AIアーティストなるものも生まれてきていて進化が著しい限りです。

そんなAIの力を自分の創作活動に活かしていきたいと思ったけどなかなか先に進めずにいる方も多いのではないでしょうか?

「AIの力を何か導入したいなぁ…」
「けど、曲は自分で作って行きたいし…」
「ちょうど良い塩梅の使い方ないかなぁ…」

そんな皆さんに今回はSUNO AIのステム分離を使用したDTMについてお届けして行きます。

内容としては以下の3つです。

ステムをMIDIに変換
リアレンジしてみた
注意点

ステムをMIDIに変換

SUNOのステム分離精度

3曲をステム分離してみました。
それぞれ雰囲気やジャンルの違う楽曲で分離精度がどのように変わるか確認してみます。

最大12パート分離とのことですが、私がやってみた感じでは7〜9パートぐらいに分離されました。

そして出力はMP3とWAVが選べますが今回はMP3でやってみました。
WAVは多少高音質になる分、分離生成にかなり時間がかかっていたので今回は諦めました。

1.80年代テイストのレトロインスト

2.エネルギッシュなアンセムロック

3.柔らかなピアノとローファイ曲

いかがでしょうか?

各パートごとに多少の精度の違いこそあれど、音は聴き取れるし充分な使い心地ではないでしょうか?
ドラムなどはこのままサンプルとして使いたくなるぐらいですね。
ボーカルも非常に聴き心地よく進化しています。

曲全体としてボーカルの隙間を開けるためにボリュームの変化があったり、オケだけ聞いてみると意外とシンプルだったりというのは大きな発見でした。

あばん
あばん
伴奏にいろんなパート追加したくなっちゃうけど…
もーだん
もーだん
最小限でも充分かっこよくなるんだね。

MelodyneでMIDIに変換

今回はキーボードをMIDI変換します。
コード楽器はギターもあるのですがステムの分離精度やMIDI変換の難度の関係によりあまりお勧め出来ません。

耳コピをしたりDAWの機能を使ってコードを分析してみるのも良い方法でしょう。

以前書いた記事ですがStudio Oneのコード解析機能を紹介しています。

Melodyneで「ポリフォニック」のアルゴリズムで解析してもらったら、MIDIを書き出してDAWに戻すだけで簡単にMIDIに変換することができます。

無料の変換方法

調べてみると「Topmediai」というウェブツールでも出来るみたいです。

まぁ、DTMにAIを導入していくという趣旨なので恐らくご覧の皆様は何らかの方法をお持ちかと思いますが、念の為。

スポンサーリンク

リアレンジしてみた

せっかくなので3曲目に作ったピアノボーカル曲をリアレンジしていきます。
ボーカルはそのまま使って他のパートを音源プラグインに置換していきます。

ドラムはUJAMのCOZYを使ってみたり、アコギは自分で弾き直したりなど。

ステム分離時には「Synth」として書き出されていたパッド系の音もストリングスの方が柔らかくて良いだろうと思いNIのストリングス音源にしました。

オートメーション等は全然書いておらずMIDIノートの位置などを調整しただけとなっています。

出来上がり

ボーカル入りと無しVerをそれぞれ比べてみました。

あばん
あばん
うーーーーむ……。
もーだん
もーだん
正直、甲乙つけ難い…。

やはりSUNOは暖かさもありながら非常にバランスの取れたものでした。
そして、私の方はよりLo-Fi感を出しながら優しさを重視したアレンジになったと思います。

MIDIの調整やら、ギターの録音やら、バランス整えたりやらでなんだかんだ2時間ぐらいかかったような気がします。

それでも、ここまで自分が自由にできる余地がある曲は、AI曲といえどもかなり愛着が湧いてくるのでは無いでしょうか?

スポンサーリンク

注意点

MIDIと音源は必ずしも一致しない

やってみて思ったのがピアノのサスティンペダルとかは当然考慮されていないので、MIDIノートが実音より長く伸びてきます。
また実録の音ではなく生成された音なのでMIDI変換がうまくいってないパターンもかなりあります。

それにより不自然に音が切れたり重なったりしてしまう部分があるので上手く調整しましょう。

あばん
あばん
その調整のひとつひとつが…
もーだん
もーだん
更なるオリジナリティを産むんだね!

私もリアレンジ中は原曲を聞き返して「こう鳴っているのか…じゃあこうアレンジしよう!」を繰り返していました。

MIDIと音源は必ずしも一致しないことを念頭においておけばかなりの作業スピードの向上が見込めます。

BPMを合わせる

これも当然なのですが、SUNO曲とBPMを合わせておいた方が楽に作業できます。
グリッドが適切な位置に無いだけでかなりやりづらいです。

もし可能であれば、楽曲を生成するタイミングで、BPMを指定しておくとその周辺で生成をしてくれるのでBPMを合わせるのが楽になります。

初歩的なことですが、見落とさずに調整しておきましょう。

スポンサーリンク

ステムの見るべきポイント

構成楽器
パートごとの音色変化
副旋律のフレーズや伴奏

今回やってみて、各パートの担当音域がある程度棲み分けされていることの大事さを改めて感じました。

ベースがいる時にはピアノは中〜高音域を埋めて、ベースがいなくなると低音域を使う、とか。

構成楽器自体は多くなくても、各楽器の出し入れで曲の展開は作れる、とか。

伴奏はシンプルでもボーカルが入ると曲になるぐらい声の存在はデカい、とか。

ステムから学べることは正直かなり多いです。

もちろん、曲全体からインスピレーションを得ても良いし、ステムの1パート、例えば、ギターリフなどからガラッと作り替えても良いしと、汎用性はかなり高い気がします。

欲張ったことを言うなら、もっとドライで高音質なステム分離ができるようになれば、キックだけ抜いたり、ループサンプルとして使いやすくなるだろうなと感じます。

耳コピはプロの技を盗む大事な方法ですが、ステムを使ってのリアレンジは勉強にもなるし制作物にもなる一石二鳥状態です。

ぜひ、このような方法でのAI導入を試してみてください。

このブログ記事が、皆さんの音楽制作に役立つ情報を提供できることを願っています。
さらに詳しい情報や、ご意見ご感想があればぜひコメントをお待ちしています。

ABOUT ME
池田 耕平
夫婦アコースティックデュオ「アバンdeモーダン」のメンバー。 作詞作曲とDTMを使った編曲やミキシングを担当。 メイン楽器はアコギとハーモニカ。 DAWはStudioOne。 ・音楽制作(BGM・ボカロ) ・夫婦ライバー ・YouTube運営(カバー・DTM解説) ・当ブログ運営
こちらもおすすめ
生成系AI

【完全解説】MIDI出力も出来る!DTMerのための音楽生成AI「AIVA」がやばすぎる!作れるジャンルが幅広過ぎて音楽人生壊されそう…!

2023年12月9日
アコギとDTMと
いいえ。やめません。本当に衝撃を受けました。サービスのリリース自体はちょっと前なのですがAIの進化と共にクオリティも上がってきてい …