これまで、私たちはGenerative AIを使って人間らしいテキストの執筆、音声からテキストへの変換、画像の生成などに使用してきましたが、Googleは新しいAIモデルであるBrain2Musicに進化したことを発表しました。これは初めてこのようなAIツールを見るわけではありません。以前、OpenAIがJukeBoxという類似のモデルに取り組んでいましたが、現在はそれに注力していません。
Googleの新しいAIモデルは、特定の脳のパターンを見て、AIの助けを借りて同じ音を作ろうとすることで、脳の活動に基づいた音楽を作成することができます。これはGoogleにとって初めてのプロジェクトではありません。同社は以前にMusicLMに取り組んでいました。この記事では、MusicLMとは何か、どのように使用できるのかを理解しようとします。
GoogleのBrain2Musicはどのように機能するのか?
研究者は、研究中にさまざまなジャンルの曲(ブルース、クラシック、カントリー、ディスコ、ヒップホップ、ジャズ、メタル、ポップ、レゲエ、ロック)を15秒ずつ聴いていた5人の被験者からfMRIデータを収集しました。
昨日、GoogleはMusicLMという新しいAIモデルに関する論文を公開しました。
このモデルは、「レゲトンとエレクトロニックダンスミュージックの融合で、宇宙的で異世界的なサウンド。宇宙に迷い込んだような体験を引き起こす」といったキャプションから24 kHzの音楽を生成します。
— Product Hunt (@ProductHunt)
ここで、GoogleのAIは、脳の活動のパターンやリズム、感情など、音楽のさまざまな要素を理解できる深層ニューラルネットワークで訓練されています。そして、これらのパターンを訓練されたデータセットと照合し、Brain2Musicは意味レベルでオリジナルの曲を作成しようとします。このテストにより、Brain2Musicは曲と一緒に心の中で何が起こっているかを理解し、ジャンル、楽器、ムードなどを把握することができます。
AIによって生成された音楽の作成方法を聴きたい場合は、Googleのウェブサイトにアクセスし、研究論文からのオリジナルのクリップを聴くことができます。興味深いことに、この機能はGoogleのMusicLMと比較され、素晴らしい結果を生み出しています。ただし、現時点では楽器のみであり、歌詞には焦点を当てていませんので、将来的にはさらに優れたAIが開発される可能性もあります。
GoogleのMusicLM
GoogleのMusicLMは、自然言語のプロンプトや入力から音楽を生成できるように、大量の音楽で訓練された言語モジュールです。これはAudioLMに基づいており、高い忠実度でオーディオを生成することができます。同社は280,000時間の音楽データセットを使用しており、特に楽器など、テキストよりも理解が難しいものです。歌詞や音声テキストなどのオーディオツールはありますが、これは音楽を生成することができる唯一のツールです。
GoogleのMusicLMを使用して音楽を生成する方法
現在はベータ版です。使用するにはGoogle Labsプログラムに参加する必要があります。
MusicLMベータ版の入手方法
- ブラウザでMusicLMにアクセスし、「はじめる」をクリックします。
- 次に、登録を求められるので、まず興味を登録し、「今すぐサインイン」をクリックします。
- その後、フォーラムに参加する必要があります。その後、メールをチェックする必要があります。Google MusicLMが利用可能になったときに、会社からメールで通知が届きます。
- したがって、この方法でGoogle Musicのベータ版を入手できます。
Google MusicLMの使い方は?
ベータアクセスを受け取った後、次の手順に従ってGoogle MusicLMを使用できます:
- まず、MusicLMにアクセスし、ベータアクセスアカウントでログインします。
- 次に、MusicLMのインターフェースが表示されます。左上にはテキストボックスがあり、そこにプロンプトを入力できます。
- 例えば、「ディナーパーティーのためのソウルフルなジャズ」と書いてリクエストを送信します。
- また、音楽トラックの右側にある三点リーダーをクリックして、音声をダウンロードすることもできます。
- 以上です。
これが音楽の作成方法です。基本的なレベルであり、改善の余地があります。最大の問題は、ベータアクセスを受け取るまでに時間がかかることです。ただし、アクセス権がある場合は、さまざまなプロンプトを試すことができ、Googleはいくつかのアイデアの結果を提供しています。
Google Brain2Musicの制限事項
まず、まだすべての人には利用できません。一部のプロフェッショナルのみが利用できます。さらに、MusicLMはまだ正確ではなく、まだ初期段階にあります。ただし、プロンプトまたは入力に基づいてより良い音楽を生成できるため、大幅なアップグレードです。生成される音楽は24 kHzであり、現在、研究には5.5Kの音楽テキストペアしかありません。
間違いなく、MusicLMとBrain2Musicには著作権の問題が生じます。現在、訓練された曲のわずか1%しか再現できないことが研究で示されています。一般ユーザーは、この世代のAIと業界で著作権コンテンツを扱うことについて、賛否両論を持っています。しかし、興味深いことに、テキストプロンプトと脳活動に基づいて任意のジャンルの音楽を生成することができます。将来と会社が直面する課題を見てみましょう。