近年、作曲にもAIの波が押し寄せてきていますよね。LANDRやiZotopeなどの企業が率先して取り入れており、ミックス・マスタリング機材として使っている人も多いと思います。
それに通じる形で、AIによる自動作曲についてはどれくらい知っているでしょうか?
「AIって何? 自動作曲ってどういう仕組みで動いているの?」 という方も多いと思います。また「調べてみたが、難しくて良く分からない」といった方もいるのではないでしょうか。
そういう方向けに、「今、自動作曲はどの程度のことができるのか、どのような仕組みで動いているのか」ということを簡単に説明しようと思います。数式や専門用語などの難しい話は一切しないので安心してください。
また、管理人はAI向けの資格(G検定)を持っており、その上で、今後AIは作曲にどう関わってくるかという雑感についても述べさせていただきます。
キーワード:AI、人工知能、自動作曲、ディープラーニング、深層学習
[rtoc_mokuji title="" title_display="" heading="h3" list_h2_type="" list_h3_type="" display="" frame_design="" animation=""]
目次
5秒で分かるまとめ
- 自動作曲の完成度はかなり高い
- すでに一般に浸透しつつある?
- 上手く使えばAIは良き友になる
自動作曲された曲
百聞は一見に如かずということで、AIによって自動作曲された曲を聞いてください。
自動作曲を始めて耳にした方はとても驚いたのではないでしょうか? これが今のAIによる自動作曲です。非常に完成度が高いですよね。管理人は「これはプロによって作られた曲だ」と聞いたとしても、違和感はないと思いました。
ただ、この曲は自動作曲された譜面を元に、プロのオーケストラの演奏を録音しているものです。ソフトによって自動作曲されたそのままの曲は、下記の動画のように少しだけ完成度は劣ります。
しかし、これが映画の中で流れていたとしても、AIによって自動作曲されたものであると管理人は気がつかないと思います。
ここで紹介しているのはAIVA(アイヴァ)という自動作曲ソフトです。オーケストラ以外に8種類のジャンルに対応しており、管理人が調べた中では最も完成度が高かった自動作曲ソフトです。
自動作曲の仕組み
さて、AIによる自動作曲について体感していただいたところで、自動作曲の仕組みについて、基礎中の基礎だけ説明していきます。数式や専門用語などの難しい話は一切出てこないので安心してください。
AI(人工知能)とは何か
まず、自動作曲の前にAI(人工知能)について説明しておく必要があります。
昨今、やたらとAIだ人工知能だと盛り上がっていますよね。先ほど紹介した自動作曲も、もちろんAIによって行われています。
では、そもそもAIとは何でしょうか?
実は、これは専門家の間でも定まっていないものなんです。人によって定義が異なるのですね。東京大学の 松尾豊 教授によるとAIの定義は下記になります。
人工的に作られた人間のような知能、ないしはそれをつくる技術
「人工知能は人間を超えるか」
例を出すと、昔で言えば「○○をしたら△△と返事をする」といったような、ただのマニュアル的な対応をAIと呼んでいたこともありました。近年では、盤面に応じて戦法を変える囲碁ソフトをAIと呼ぶこともあります。
公式ではありませんが、人工知能であるかどうかを判定するためのテストがあり、そちらでは「対話を行い、コンピュータと見抜けなければAIである」という判定基準が設けられています。
管理人からは、あなたが「賢く動いてる、これはAIに違いない!」と感じれば、それはAIである、と考えてよいとお伝えしておきます。
実例として、iZotopeのNeutronが挙げられます。こちらを使ったことがある方は、ボタン1つでミックスが終わるさまを見たことがあるのではないでしょうか。SleepFreaksさんの下記の動画にて紹介されています。
まるで、ミキシングエンジニアがプラグインの中にいて、音を聞いてミックスしてくれているようですよね? これがAIです。
人間はどのように作曲しているか
さて、AIについて説明したところで、自動作曲の仕組みについて本格的に迫ります。
先ほど、「ただのマニュアル対応もAIである」という話をしましたが、現状、それよりもっと賢い方法がとられています。
それは「人間が作曲する仕組みを真似る」というものです。
みなさんは、自分がどのように作曲をしているか説明できますか?
なぜそのメロディなのか、なぜそのコードを使ったか説明できますか?
「音楽理論の基本だから」「和風を目指して」「おしゃれになるようにテンションを使った」など、要因はいくつかあると思います。しかし、根本的な理由を説明をするのは難しいのではないでしょうか。人によっては「勘でやってみた」という方もいると思います。
そうです、作曲方法を説明するのはとても難しいんです。体感や感情といった形のないものが関与してくるので当たり前ですよね。
ただ、作曲をした際に、あなたの身に 物理的に何が起きたのかを説明することはできます。
あなたが作曲をする仕組みは、大雑把に言えば下記のような感じです。

先ほど例に挙げた作曲方法は、元をたどれば脳の電気信号によって起きているわけです。作曲に限らず、みなさんが考えている物事は、すべて脳の電気信号なのですね。
この仕組みをコンピュータで再現したものがディープラーニング(深層学習)と呼ばれるものになります。これが今日の自動作曲におけるAIとして使われています。
人間の仕組みを真似たディープラーニングとは
では、ディープラーニングとは具体的にはどういうものなのでしょうか。それを説明するのにちょうどよい動画があるので、こちらをご覧ください。これは、先ほど紹介した自動作曲ソフトAIVAが、どのような仕組みで自動作曲をしているかについての解説動画になります。
この動画で解説していることを簡単に書くと下記になります。
- たくさんの譜面を脳に聞かせる
- 「この音がきたら次はこうだ!」というパターンを発見させる(学習)。
- 学習した脳に「この音で作ったらどうなる?」と聞くと、学習結果をもとに曲ができる。
どうでしょうか。人間の作曲方法と同じ形になっているとは思いませんか? 例えば「好きなバンドの曲をたくさん聞いたぞ!自分ならこのバンドに似た曲が作れるはず!作ってみるか!」と意気揚々と作曲する姿に似ていますよね。
ただ、AIと人間で決定的に違うのは、AIは「誰かの曲の真似がとても得意で、個性のある曲を作るのは苦手」ということです。もう少し仕組みを深く知ると分かるのですが、ディープラーニングで学習するというのは、「誰かの曲をコピーしたぞ!パターンが分かったからこれに似た曲を作るぞ!」ということでしかありません。なので、人間のような突飛な発想は難しいのですね。例えば「極端に歪ませたらどうなるか」とか「急にBPM999にしたらどうなるだろう」などです。
ただ、「個性のある曲を作るのは苦手」なのはあくまで「現状」でしかありません。今後そのような仕組みが作られる可能性は大いにありますので、そこは了承しておいてください。
参考として紹介した動画を見るのが辛いという人向けに、記事の最後に書き起こした文章を載せておきました。最近の自動作曲についてのエッセンスがたくさん詰まっているので、興味があったら見てください。管理人も非常にタメになりました。
以上、AIによる自動作曲についての簡単な仕組みの説明でした。
自動作曲ソフト
すでに、AIによる自動作曲をソフト(アプリ)化しているものが複数あります。その中で、管理人が完成度の高いと感じたものを3点紹介します。
AIVA
OrbComposer
Flow Machines
その他としては、AmperMusic・Band-in-a-Box・Music Makerなどがあります。
AIによって作曲は今後どうなるか
管理人は作曲家というわけではありませんが、DTMerとしての意見に加え、AIの資格を持っている者としての観点で、AIが作曲に携わった際の雑感を述べていきます。
作曲する楽しみは奪われない
AIによる自動作曲の仕組みとして説明したのですが、現状、AIは「 個性のある曲を作るのは苦手」です。なので、チャートインするような練りに練った曲や、DTMerとして趣向を凝らした曲とは取って代わることはないと考えています。なので、DTMerとして作曲すること、また作曲して公開することの楽しさは奪われないでしょう。
これが今後、AIが個性を出してきたらと考えると怖さがあります。作曲をする楽しみそのものは奪われないと思いますが、曲を公開した際に「AIのほうが上手」という感想をもらったり、そもそも感想をもらえないほど自動作曲が浸透してしまっていたらと考えると、どのように振舞えばよいか分からないですね。
BGMは数年で大きく変わる
「作曲する楽しみは奪われない」という話をしましたが、現状でも「BGMについては大きく食い込んでくる可能性がある」かと思います。といってもプロが作るようなものではなく、「とりあえず使えればいい」といった低品質なBGMについてです。
例を挙げると、ネット上で無料で公開されているような「なんとなく音楽が流れていればいい、雰囲気さえあればいい 」というBGMでしょうか。そういったものは、今使われているものを除いてあと数年程度で活躍の場がなくなってしまうのではと考えています。
というのも、AI(特にディープラーニング)の進化は異常なまでに早いのです。ディープラーニングの技術自体は何十年も前からあるのですが、これがブームになったのが2012年とつい最近です。それからほんの7年の間に囲碁で勝つようになったり、翻訳が性能向上したりと、急激に成長しています。作曲も言わずもがなです。
NVIDIA(GPUやAIの会社)の偉い人が「2025年にはそういった曲はAIに置き換わる」といっていた記事を目にしたことがあります。作曲してる側からすると想像もできないスピードですよね。ですが、AIに携わっている人はそのように考えているほど進化は早いのです。
※記事の出典を忘れてしまったので誰か知ってたら教えてください。
「低価格な権利フリー音源は、きっとすぐに駆逐される」という記事もあるほどです。こちらの記事は非常に面白かったので読んでみてください。
補助ツールとしては有用
作曲補助ツールとして、自動作曲ソフトは非常に有用だと考えています。というのも、作曲者には少なからず苦手分野があり、そういった弱点を補うという形で使えるなという感触があるからです。
実際、AIVAによって自動作曲されたオーケストラ曲はかなり真に迫るものがありましたよね。オケに関して苦手意識のある人は多いのではと思いますが、AIVAではあの演奏をMIDIとして出力してくれるので、それを見て学習する、そこに独自の要素を加える、といったことが可能なのは想像できるかと思います。そのまま使うのではなく、あくまで土台として自分の作曲レベルを上げるのに使う、というツールとしての用い方ですね。
別分野、例えば将棋では、AIの棋譜からプロの棋士が戦法を学ぶということが起きています。このようなAIからのフィードバックは、今後、作曲でも起きるのではと考えています。もしかしたら作曲の学習におけるスタンダードになるかもしれません。そう考えると、AIとは良き友になれそうですよね。
以前、他のDTMerと対談した際にすでにAIを補助ツールとして使用している、という話をしたことがあります。管理人が知らないだけで、すでにツールとして用いている方は多いのではとさえ感じています。
音源の性能向上
以前までは、たくさんの音をサンプリングして、サンプラーを用いて鳴らす形が一般的でしたよね。ただ、最近はMODO BASSなどの物理モデリング音源(PC上で音を合成する音源)が流行ってきていて、サンプリングせずとも非常にリアルな演奏を行うことが可能になってきています。
これに、AIが組み合わさったらどうなるでしょうか?
人間味のある滑らかな演奏になることは一瞬で想像できるのではないでしょうか。もしかしたら「○○さんが演奏したら」という疑似演奏も可能になるのではと考えています。
そうではなくても、ベタ打ちしただけで人間味のある演奏に出来たらDTMerとしては時短できて便利ですよね。そういう時代もすぐそこかもしれません。
実は、AIと音源の組み合わせ、歌についてはもうとっくに始まっています。以前「藤本健の”DTMステーション”」さんにてAI歌声合成を行ったCDを作成していました。管理人はこちらを聞いたのですが、「人間が歌ったのと遜色ないレベルだな」感じました。これを聞いて、他の音源でも十分に性能向上を期待できるという感触を持ちました。
また、音源の性能向上につながりがあると思いますが、ヤマハではAIによって過去の名アーティストの演奏を再現する研究を行っています。音源だけではなく、生演奏の分野にも広がりを見せていますね。
Gizmode
以上、管理人の雑感でした。
最後に
いかがだったでしょうか。管理人はAIにまつわる資格も持っており、このような状況であることは理解していました。
ただ、調査していて驚いたのは、高校生が自動作曲のAIを作っている事例があるということです。デジタル化が若者にも浸透しているとはいえ、ここまでとは思っていませんでした。こういう考えでいると、時代が変わるのはあっという間かもなぁという気がしています。
また、今回の記事でAIについて興味を持った方は、下記の本を読んでみるとさらに理解が深まるかと思います。良いAIライフを! それでは。
おまけ:AIVA解説動画の字幕
Arjun Dutt:映画のストーリーに深みを与える音楽は、私のような映画ファンには見逃せない要素です。場面に合わせた作曲は困難な作業ですが、AIの力でその変革に挑んでいる企業があります。NVIDIAの Arjun Dutt がお送りするシリーズ『I am AI 』です。
Pierre Barreau:作曲家にとって最も恐ろしいのはスランプです。そこで、ごく短時間での多くの曲を生み出すアルゴリズムを開発しました。Aivaは映画、テレビ番組、ゲームなどのコンテンツ用音楽を作曲するAIです。他の自動作曲と異なるのは、ディープラーニングのアルゴリズムを活用して、大作曲家のように情感溢れる曲を作ろうとしていることです。
Arjun Dutt:その感動的なサウンドは、NVIDIAのカンファレンス用オリジナル曲にぴったりでした。
Pierre Barreau:NVIDIAの方から声がかかりプロジェクトがスタートしました。カンファレンスで予定していたAIに関する基調講演について話を伺い、講演用映像の楽曲をAivaで制作することになりました。
Arjun Dutt:AIで製作期間を短縮する試みは興味深いですが、Aivaは曲のテーマをどう決めるのでしょうか?
Pierre Barreau:まずはクライアントの要望を確認します。感傷的な曲か、気分が高揚する曲か。モーツァルトやベートーベン風の曲など、Aivaに学習させる作曲家のスタイルを指定される場合もあります。クライアント次第ですが、NVIDIAの場合はサンプル楽曲を与えた後、似ている曲がデータベースに見つかったので、Aivaを再訓練しました。
Arjun Dutt:Aivaによるクラシック音楽の作曲は、巨大なMIDI音源データベースの取り込みから始まりました。音符、コード、テンポ、リズムの情報をすべてコンピューターに蓄積し、リカレントニューラルネットワーク(脳)を駆使して、曲の中にパターンを発見し、曲の基本的なスタイルを理解します。楽曲内の音の遷移を予測し、予測精度が向上したら、そのスタイルでルールを作成します。これでオリジナル曲を作る準備の完了です。[演奏]。素晴らしい調べですね。しかし、Aivaが様々な曲の断片を寄せ集めて、オリジナル曲としてしまわないのはなぜでしょうか?
Pierre Barreau:GPUコンピューティングで作成した盗作チェッカーで、完成した曲が学習用データベースからの盗作ではないかを確認しています。完成した曲にクライアントが満足したら、人間の手でピアノ曲からオーケストラ用に編曲し、楽器を追加します。クライアントの了承が出たら、演奏の録音に入ります。 [演奏]。
Arjun Dutt:完成した曲にはとても感動しましたが、それは大勢の人間の手が加わっているからかもしれません。AIはさらに進化できるでしょうか?
Eric Breton:音楽の評価は客観的な視点で行われるべきですが、演奏や指揮をしていると、その楽曲の中に入り込まなければなりません。テクノロジの活用は、クリエイターや演奏家にとって、高みを目指す大きなチャンスになると思います。
Pierre Barreau:AIの開発を続けるうえで、目標としている機能が3つあります。1つ目は良い音楽かどうかを聴き分ける機能です。現時点では、クライアントの要望を満たす楽曲かどうかをAIではなく私たち人間が判断しています。2つ目は初めからオーケストラ用として作曲するための機能。3つ目は映画やゲームのシナリオを読み、そこに含まれている感情を音楽で表現する機能です。
Arjun Dutt:Aivaが本当に作曲家と呼べるのか、その答えは出ています。フランスの音楽著作権保護団体SACEMの認定を受けているのです。
Pierre Barreau:Aivaは著作権協会の認定を受けており、作品はすべて著作権で保護されています。今は私が教師役ですが、いずれは1人の作曲家としてさらに多くの作品を持つようになるでしょう。(終)
I am AI Docuseries, Episode 1: AI で人の心を動かす曲を作る - Aiva