Suno v5.5、自分の声でAIに歌わせる時代へ。Voices・Custom Models・My Tasteの3機能を一挙投入

AI音楽生成サービスSunoが、v5.5をリリースした。これまでのアップデートが音質向上やボーカルの自然さに注力してきたのに対し、今回はユーザー側の「コントロール」に全振りした内容になっている。
新機能は3つ。Voices、Custom Models、My Taste。
VoicesはSunoが最もリクエストを受けてきた機能だという。ユーザーが自分の声をアップロードし、AIボーカルモデルを訓練できる。クリーンなアカペラ、バック付きの完成トラック、あるいはスマートフォンのマイクで直接歌うだけでも対応する。録音品質が高いほど必要データ量は少なくなる。
他人の声の無断使用を防ぐため、認証フレーズの読み上げが必須。ただし、既存のAI音声モデルを使えばこの認証を突破できる可能性がある点は、The Vergeも指摘している。
Custom Modelsは、自分の楽曲カタログ(最低6曲)をアップロードしてSunoを訓練する機能。名前を付けたカスタムモデルがプロンプト応答時のスタイルガイドになる。自分の音楽性をAIに学習させ、それを土台に新しい曲を生成する仕組みだ。
My Tasteは使い続けるほど精度が上がるパーソナライゼーション機能。ユーザーが繰り返し選ぶジャンル・ムード・アーティストの傾向を学習し、マジックワンドによるスタイル自動生成に反映する。
My Tasteは全ユーザーに開放されるが、VoicesとCustom ModelsはProおよびPremierサブスクライバー限定。
Sunoはこれまで「AIで誰でも作曲できる」を売りにしてきたが、v5.5で方向転換した。汎用ツールから「自分だけの音楽エンジン」へ。競合のUdioやAI音楽市場全体に対して、カスタマイズの深さで差別化を図る戦略が見える。
この記事が役に立ったら共有してください

Anthropicが「史上最強のAI」を誤って自分でリークした——Claude Mythosという衝撃の現実
AnthropicのCMS設定ミスにより、未発表の最強AIモデル「Claude Mythos」の詳細が約3,000件のドラフトと共に流出。Opus超えの新ティア「Capybara」の存在も明らかに。
2日前Metaが「脳のデジタルツイン」を作った。700人分の脳スキャンで訓練、あなたが何を見て何を感じるか、AIが事前予測する
MetaがfMRI脳スキャン720人分で訓練したAI「TRIBE v2」を公開。動画・音声・テキストに対する脳反応を事前予測できる「脳のデジタルツイン」。神経科学研究に使えるが、広告と組み合わせると何が起きるか——
4日前広告