読者です 読者をやめる 読者になる 読者になる

シャイニングマンの「勇気を君に」

今まで人の役に立った事がない人間が出来るだけ人の役に立とうと始めたブログ

鼻歌を聞かせるだけで自動作曲するA.Iを搭載したアプリ「muddica(ムディカ)」が凄そう

科学(A.I/人工知能)

後で読みます?⇒このエントリーをはてなブックマークに追加

スポンサードリンク

f:id:shining-man:20170324113942p:plain

どうも。シャイニングマンです。今日は久しぶりに最先端のA.I事情をば。


以前、このブログで「A.Iが作る音楽」の話題を記事にした事があったのですが、今回は更なる進化を遂げた技術が開発されたというニュースが入りました。


音楽という分野は以前から人工知能と深く結びつき、その性能を進化させて来ました。例えば


「ジャンル」とそれに準じた「曲調」と「曲の長さ」をユーザーが指定する事でA.Iが自動で作曲するというWEBサービス「Jukedeck」


ジャズやポップスなど130000曲のビッグデータを解析してユーザーが指定したスタイルで自動作曲する「フローマシーンズ(SONY)」


ここ最近では大阪大学COIが「ユーザーの気分を高揚させるような曲を自動で作曲するA.I」を開発するなど


音楽業界におけるA.Iの進化も多様性を見せ始めています。


そして今回「株式会社アップライブ」という日本の企業が

 

 


スマホに鼻歌を聞かせるだけでそのまま自律的に作曲を手伝ってくれる

 


というスマホアプリ「muddica(ムディカ)」のリリースを発表しました。

 

 

muddica(ムディカ)とは

f:id:shining-man:20170324113939p:plain

 

「muddica」の最大の特徴はアーティストのセルフプロモーション支援機能に加えて、作曲支援機能として、Googleのディープラーニング人工知能モジュールTensorFlow™をベースに開発したスマートフォンのマイクから鼻歌を入力すると、自律的に作曲する機能をスマートフォンアプリに実装した点です。

これにより誰でも気軽に人が創造できない発想力を持った人工知能を使って今までに無いクリエィティブな楽曲を創造することができるようになります。

 

参照記事:世界で初めてディープラニング人工知能を使って鼻歌から自律的に作曲する機能を実装した無料スマートフォンアプリ「muddica(ムディカ)」を4月下旬リリース|アップライブのプレスリリース


このアプリは4月下旬に「IOS版」で先行リリースされるとの事。(僕はAndroid…涙)


もちろん、ディープラーニングが音楽に関するA.Iに導入されるのはこれが初めてではありませんが、「鼻歌を聞かせるだけで音楽を自動作曲する」という技術は「世界初」です。

 

ムディカにも採用されてる「ディープラーニング」とは?

f:id:shining-man:20170324113944p:plain

※「ITソリューション塾:オルタナティブ・ブログ」より

 

これはかねてから研究されてきた機械学習「ニュートラルネットワーク(人間の脳神経回路を真似て作ったアルゴリズム)」をベースとした発展型(深層学習)で


これまでの機械学習では到達出来なかった「概念の学習」に成功したと言われているとんでもない技術革新です。

 

従来の機械学習との違い

例えば「猫」の画像を機械に学習&認識させようと思った場合、従来の機械学習ではその定義(ルール)を人間側が指定する必要がありました。


・耳はこういうので

・鼻はこういうので

・目はこういう感じで

・柄とか色はこんなので

 

…みたいな事を人間がまず機械に教えた上で

 

「さぁこれは猫でしょうか?それともトラの赤ちゃんでしょうか?」

 

という問いに答えらえる。と言ったものです。これだけでも十分凄い事なのですが

 

逆に言えば「人間が定義を与えないとA.Iは学習を開始出来ない」という壁でもあった訳です。


しかしそれに対して「ディープラーニング」人間が予め定義を入力する必要すら無く、入力されたビッグデータ(大量の猫の画像情報)を解析する中で、その概念自体を自ら獲得する事に成功しました。


因みにディープラーニングによって学習を終えた機械に↑と同じ質問をすると

 

「あぁ、ネコはもちろんこっちですし、更に言えばこれはスコティッシュフォールドっすね(*´∀`*)ゞ」

 

と、それが猫かどうかは勿論の事、その品種を答える所までの精度になっているとの事。

 

人間が教えていない事を自ら学習したという事は、A.Iと人間との間にあった「壁」が一つ取っ払われたという事を意味します。

 

まとめ

f:id:shining-man:20170324113941j:plain

ディープラーニングだけに、少し話が深い所まで行ってしまいましたが(え?)

 

要はこの革新的な技術によって今回のムディカも生まれたんだよ。というお話でした。

 

僕は趣味でバンドをやっていて作曲もする人間ですので、このアプリの精度次第では「かなり助けられる」事になると思っています。てか助けてほしい。(全然曲出来ねぇ)


もちろん「機械に手伝って貰って造られた音楽って、どないやねん」っていう気持ちも無くはないですが(苦笑)


でも例えば音楽的な知識の無い所謂「素人」の人でも、このアプリを使えばもしかしたら「凄い作曲家」になれるかもしれません。


音楽には「アイデア」「そのアイデアを具現化する技術や知識」との両方が必要になります。


例えば良いメロディーを思いついたとしても、ギターやピアノが弾けなければ最低限の「楽曲」として完成させる事は出来ません。


今の時代なら「ガレージバンド」とか「初音ミク」とかっていう「音楽ソフト」もありますが、いずれにせよそれらを扱うスキルや知識は少なからず必要になってくる訳です。


しかしこのアプリがあれば譜面の読み書きが出来なくても、音符の意味が解らなくても、誰でも「思いついたメロディーを口ずさむだけ」で後はA.Iが肉付けしてくれるというのですから僕個人としては素敵だと思います。

 

まだまだこのアプリの情報は全て出ていないので、今後も注目していきたいと思いますし、「Android版」がリリースされたらすぐさまインストールしてみようと思います。(iOSの人うらやま…)

 

ムディカの公式サイトでは事前登録もやっているので、興味がある人は登録してみてはいかがでしょうか?

 

あじゃした!!

 

 

【関連記事】

ディープラーニングでA.Iが囲碁で人間に勝った話

米ディープマインド社が作ったAlphaGo(アルファ碁)に見る人工知能の進化 

 

世界で最もディープラーニングを研究してる人の話

Googleに4億ドルでヘッドハントされた「デミスハサビス」という天才の物語 

 

スポンサーリンク