自動運転技術やロボット技術が注目を集め、「Google Home」や「Amazon Alexa」といったAIスピーカーが好調な売れ行きを見せるなど、人工知能(AI)分野は我々の実生活においても着実に広がりを見せつつある。
こうした中で、9月19日にはセミナー「AI MEETUP2 -Powerd by Sony Music Entertainment- AIキャラクタービジネス最前線」が開催された。
「AI MEETUP」は、音楽やアニメを中心にエンタテインメントビジネスを展開するソニー・ミュージックエンタテインメント(以下、SME)が、株式会社emotivEと対話型AIサービス『PROJECT Samantha』を共同事業として開発・展開することに端を発している。AI×キャラクターの最新技術や市場動向について、有識者らによるプレゼン・議論が行われる本セミナーは昨年10月以来で、第2回目を迎えた。 AIに関する技術や市場が急速に発展する中、この1年でAI×キャラクタービジネスはどのように進化してきたのか? また、今後どのような展開を見せるのだろうか?
著書『なぜ人工知能は人と会話ができるのか』(マイナビ新書)で知られるAI開発者・三宅陽一郎氏をはじめとした識者らに加え、スペシャルゲストとして人気声優・寿美菜子氏も登壇し、「音声合成×自由対話AI」というテーマでAIとキャラクタービジネスの未来について語り合った本セミナーの模様をお伝えする。
取材・文:須賀原みち
前回の「AI MEETUP」でも同じテーマで講演が行われているため、大枠は前回の記事を参考にしていただくとして、ここでは新しく加わったトピックについて、ご紹介しよう。 冒頭、三宅氏はAIの重要性について、日本の少子高齢化と労働人口の減少を引き合いに「ロボットとAIに仕事を奪ってもらわないと、これからの社会が成り立たない」と話す。そして、ロボットやAIと人間とのインターフェースとして、言葉によるコミュニケーションの必要性を説く。
その中で、AI関係者は「AIをどう見せるか?」という問題に直面することとなる。その解答のひとつとして、三宅氏は“キャラクター”を挙げる。ただ無機質な存在としてのAIではなく、AIにキャラクター(≒固有の人格)を与えることによって、人はより親近感をもって接することができるからだ。
そして、そのキャラクターの作り方について、三宅氏は「キャラクターを作るとは、キャラクターに煩悩を与えることだ」と表現する。
例えば、生まれたてのポリゴンキャラクターをゲーム世界においた場合、そのキャラクターはなんの欲求も持っていない。しかし、キャラクターに色々なことを教え、欲望や目的を与えることを通して、キャラクターは自分が存在する世界に執着していくこととなる。その時にこそ、キャラクター(人格)が立ち表れてくるのだ。
「キャラクターから見た世界を色づけていくことは、言語のひとつの役割である」と、三宅氏は説明する。また、“人工知能から見た世界”を体験できる作品として、3人のアンドロイドが主人公のゲーム『Detroit: Become Human』の名前も挙がっていた。
こうしたキャラクター文化とAI技術を結びつける発想において、東洋的知能観を持つ日本には一日の長がある。特に、AIの自然言語処理分野で海外から遅れを取る日本において、三宅氏は「キャラクター文化とAI技術を結びつけるということが、双方を飛躍的に向上させるのではないか」と目を輝かせていた。
関係者によるクロストークとなる第二部のテーマは、「音声合成と自由対話AIが切り拓くAIキャラクタービジネス」。
舞台に登壇したのは、ソニー・ミュージックコミュニケーションズの松平恒幸氏、SMEの井上敦史氏、emotivE代表取締役の結束雅雪氏。いずれも、前回の「AI MEETUP」から引き続いての登壇となる。 そして、今回はスペシャルゲストとして、声優の寿美菜子さんがサプライズ的に登場。寿さんは、ソニーが手がけるバーチャルアナウンサーの沢村碧やXperia Earの日本版アシスタント音声など、ソニーのプロダクトにおける音声合成をいくつも担当してきたため、今回の登壇が実現した。
まずはじめに、「劇的に進化している最新の音声合成テクノロジー」について、音声合成を用いたキャラクターアプリ『めざましマネージャー アスナ』や『一択彼女 加藤恵』を手がけた松平氏より紹介される。
デモンストレーションとして、壇上で寿さんがニュース原稿を読み始めたと思いきや、実は会場に流れていたのは寿さんの声をベースに制作されたバーチャルアナウンサー・沢村碧による合成音声。よく注意して聞かないと、実際に寿さんが喋っていると思えるほどのクオリティだ。
特にニュースキャスターは一定のトーンで発話するため、音声合成との相性が良いのだという。寿さんは、テレビ番組で沢村碧と共演を果たし、対話をしたこともある。
音声合成システムの収録について、寿さんは「普段のアフレコと違って、感情を抑えながら、ロボットにならないような声質をキープして録り続けるんですよ。それで『私はジョンとコサックダンスを踊りません』みたいに、(日常会話にならない)変なことを一定のトーンで録りました。そうやって作った音声合成で、ナチュラルに会話できるようになるとは…」と、その技術力に感嘆したとのこと。 ここで、松平氏が音声合成システムを作るフローについて説明。基本的には「許諾取り」→「音声収録」→「チューニング」→「辞書完成」といった流れで制作される。
音声合成システムの認知度が低い現状では、声優事務所やキャラクターなどの権利者への「許諾取り」も重要だと、松平氏は語る。その後、「音声収録」「チューニング」をへて、“声のライブラリ”である「辞書完成」となる。こうして完成した辞書をアプリやシステムに組み込むと、テキスト情報を読むことが可能となるのだ。
ここで、これまで対話AIサービス『罵倒少女:素子』などを世に送り出し、対話型人工知能サービス「PROJECT Samantha」を担当する井上氏にバトンが渡る。 イラストレーター・mebae氏によるキャラクター・素子に話しかけるとひたすら罵倒される(たまにデレる)サービス『罵倒少女:素子』は、2018年3月に丸井グループとタッグを組んで、春のキャンペーン『AIに罵倒される春休み』として再稼働。その際には、2016年に展開していた罵倒少女のアセット(資産)を改良し、「素子と主人公が一緒にショッピングに行くシチュエーション」という物語を組み込んだ“マルイ版仕様”として運用していたという。
また、人気マンガを原作としたドラマ『インベスターZ』放送の際には、同作の人気キャラクター・神代部長をAI化した『経済系対話AI 神代部長に訊け!』を展開。いずれも、ユーザーがテキストで語りかけると、それぞれがキャラクター性を持ってテキストで返信をしてくれる、というサービスになっている。 「キャラクター性をブラさずに、AIに自由対話をさせることが大事だけれど、それが難しい」(井上氏)。
しかし、こうした対話AIサービスと音声合成が組み合わさり、キャラクターAIとの会話が可能となれば、キャラクタービジネスにおいてより多くの可能性が生まれるであろうことは、想像に難くない。
続けて、emotivEの結束氏は、同社とSMEが共同で開発する「PROJECT Samantha」について話し始める。「PROJECT Samantha」では、入力されたテキストに対して、その意図を読み取り、アウトプットを返す手法などを取ってきた。これにより、ユーザーに「自分の言いたいことが伝わっている」と感じさせられる“人の心を動かすAI”として開発を続けてきたという。 これら、音声合成とAI技術の融合の実例として、九州電力が開発、運営するスマートスピーカー「QUUN」のデモが行われる。「QUUN」には複数のキャラクター設定が用意されており、家族それぞれの好みに合わせて、応答するキャラクターが変わってくるというのだから驚きだ。「QUUN」にはソニーミュージックの手がけるAIキャラクターも搭載される予定だという。
前回の「AI MEETUP」でも触れていたが、2017年には「人はAIに愛を囁く」ということがわかった。そして、2018年には「人がAIに話しかけるためには、多くの動機が必要である」と、井上氏が言う。 人間は他者と会話する時に、無意識的に会話にかかるコストを計算している。そして、そのコストに見合った応答が返ってこなければ、人はそもそも話すことを止めてしまうのだそう。AIにとって自然会話は非常に難しいものなのだが、人間はAIにも人間と同等のクオリティを求めているということが、この1年を通じて学んだことなのだという。
しかし井上氏によれば、AIにキャラクターを導入することによって、こうした問題は解決することができる。
なぜなら、魅力的なキャラクターは、その存在自体が「しゃべりたい」という動機をユーザーに与えるからだ。キャラクターが介在することによって、AIと人間の会話コストはぐんと下がる。
つまり、「キャラクター=最強UI(ユーザー・インターフェース)」という持論が提唱された。
最後に、今後の「PROJECT Samantha」では、次なる自由対話AIのアプローチとして「意図から欲求へ」を掲げている。
結束氏らemotivEでは現在、認識モデル対話AI「OMOHIKANE」を開発中。これは「人の認識(欲求/感情/記憶など)をエミュレートして開発しているAIシステム」で、人が飽きずに継続して対話ができるよう「感情/欲求を理解し、性格/人物像を記憶し、話題・文脈をくみ取り、時間や場所に応じて、適切に応答することができるAIテクノロジー」なのだという。
OMOHIKANEを使えば、AIでありながらも、会話の意図を読み解くだけでなく、発話者の感情や過去にあった出来事などを加味した上で応答してくれるようになるとのこと。「欲求理解」「記憶」「状況」に応じたAI対話は、どれも他社では実現できていないemotivEだけのアドバンテージだと、結束氏は言う。
このOMOHIKANEは、2018年11月より「PROJECT Samantha」としてローンチ予定となっている。
以上をもって、クロストークは終了。その後、三宅さんを交えての質疑応答があり、OMOHIKANEを使ったビジネス展開の可能性や、音声合成技術による声優業界への影響といった、興味深いテーマが議論されたのだった。
こうして、「AI MEETUP2 -Powerd by Sony Music Entertainment- AIキャラクタービジネス最前線」は拍手喝采の中、幕を閉じた。
2018年はAIスピーカーの台頭もあり、いよいよ日常的にAIと寄り添いながら生きる現実がやってきた。キャラクター文化とAI技術の蜜月が、“AIといる生活”をより豊かにしてくれることに期待したい。
こうした中で、9月19日にはセミナー「AI MEETUP2 -Powerd by Sony Music Entertainment- AIキャラクタービジネス最前線」が開催された。
「AI MEETUP」は、音楽やアニメを中心にエンタテインメントビジネスを展開するソニー・ミュージックエンタテインメント(以下、SME)が、株式会社emotivEと対話型AIサービス『PROJECT Samantha』を共同事業として開発・展開することに端を発している。AI×キャラクターの最新技術や市場動向について、有識者らによるプレゼン・議論が行われる本セミナーは昨年10月以来で、第2回目を迎えた。 AIに関する技術や市場が急速に発展する中、この1年でAI×キャラクタービジネスはどのように進化してきたのか? また、今後どのような展開を見せるのだろうか?
著書『なぜ人工知能は人と会話ができるのか』(マイナビ新書)で知られるAI開発者・三宅陽一郎氏をはじめとした識者らに加え、スペシャルゲストとして人気声優・寿美菜子氏も登壇し、「音声合成×自由対話AI」というテーマでAIとキャラクタービジネスの未来について語り合った本セミナーの模様をお伝えする。
取材・文:須賀原みち
キャラクター作りとは、キャラクターに煩悩を与えること
まず、二部構成のうち、第一部では三宅氏による基調講演「なぜ人工知能は人と会話をできるのか?」が展開。前回の「AI MEETUP」でも同じテーマで講演が行われているため、大枠は前回の記事を参考にしていただくとして、ここでは新しく加わったトピックについて、ご紹介しよう。 冒頭、三宅氏はAIの重要性について、日本の少子高齢化と労働人口の減少を引き合いに「ロボットとAIに仕事を奪ってもらわないと、これからの社会が成り立たない」と話す。そして、ロボットやAIと人間とのインターフェースとして、言葉によるコミュニケーションの必要性を説く。
その中で、AI関係者は「AIをどう見せるか?」という問題に直面することとなる。その解答のひとつとして、三宅氏は“キャラクター”を挙げる。ただ無機質な存在としてのAIではなく、AIにキャラクター(≒固有の人格)を与えることによって、人はより親近感をもって接することができるからだ。
そして、そのキャラクターの作り方について、三宅氏は「キャラクターを作るとは、キャラクターに煩悩を与えることだ」と表現する。
例えば、生まれたてのポリゴンキャラクターをゲーム世界においた場合、そのキャラクターはなんの欲求も持っていない。しかし、キャラクターに色々なことを教え、欲望や目的を与えることを通して、キャラクターは自分が存在する世界に執着していくこととなる。その時にこそ、キャラクター(人格)が立ち表れてくるのだ。
「キャラクターから見た世界を色づけていくことは、言語のひとつの役割である」と、三宅氏は説明する。また、“人工知能から見た世界”を体験できる作品として、3人のアンドロイドが主人公のゲーム『Detroit: Become Human』の名前も挙がっていた。
こうしたキャラクター文化とAI技術を結びつける発想において、東洋的知能観を持つ日本には一日の長がある。特に、AIの自然言語処理分野で海外から遅れを取る日本において、三宅氏は「キャラクター文化とAI技術を結びつけるということが、双方を飛躍的に向上させるのではないか」と目を輝かせていた。
声優・寿美菜子さんも登場! 音声合成システムの作り方
三宅氏の基調講演に続いて、第二部が幕を上げる。関係者によるクロストークとなる第二部のテーマは、「音声合成と自由対話AIが切り拓くAIキャラクタービジネス」。
舞台に登壇したのは、ソニー・ミュージックコミュニケーションズの松平恒幸氏、SMEの井上敦史氏、emotivE代表取締役の結束雅雪氏。いずれも、前回の「AI MEETUP」から引き続いての登壇となる。 そして、今回はスペシャルゲストとして、声優の寿美菜子さんがサプライズ的に登場。寿さんは、ソニーが手がけるバーチャルアナウンサーの沢村碧やXperia Earの日本版アシスタント音声など、ソニーのプロダクトにおける音声合成をいくつも担当してきたため、今回の登壇が実現した。
まずはじめに、「劇的に進化している最新の音声合成テクノロジー」について、音声合成を用いたキャラクターアプリ『めざましマネージャー アスナ』や『一択彼女 加藤恵』を手がけた松平氏より紹介される。
デモンストレーションとして、壇上で寿さんがニュース原稿を読み始めたと思いきや、実は会場に流れていたのは寿さんの声をベースに制作されたバーチャルアナウンサー・沢村碧による合成音声。よく注意して聞かないと、実際に寿さんが喋っていると思えるほどのクオリティだ。
特にニュースキャスターは一定のトーンで発話するため、音声合成との相性が良いのだという。寿さんは、テレビ番組で沢村碧と共演を果たし、対話をしたこともある。
音声合成システムの収録について、寿さんは「普段のアフレコと違って、感情を抑えながら、ロボットにならないような声質をキープして録り続けるんですよ。それで『私はジョンとコサックダンスを踊りません』みたいに、(日常会話にならない)変なことを一定のトーンで録りました。そうやって作った音声合成で、ナチュラルに会話できるようになるとは…」と、その技術力に感嘆したとのこと。 ここで、松平氏が音声合成システムを作るフローについて説明。基本的には「許諾取り」→「音声収録」→「チューニング」→「辞書完成」といった流れで制作される。
音声合成システムの認知度が低い現状では、声優事務所やキャラクターなどの権利者への「許諾取り」も重要だと、松平氏は語る。その後、「音声収録」「チューニング」をへて、“声のライブラリ”である「辞書完成」となる。こうして完成した辞書をアプリやシステムに組み込むと、テキスト情報を読むことが可能となるのだ。
キャラクターAIとの自由対話 その可能性
そして、音声合成と相性抜群なのが自由対話AIテクノロジー(キャラクターAI)だと、松平氏は言う。ここで、これまで対話AIサービス『罵倒少女:素子』などを世に送り出し、対話型人工知能サービス「PROJECT Samantha」を担当する井上氏にバトンが渡る。 イラストレーター・mebae氏によるキャラクター・素子に話しかけるとひたすら罵倒される(たまにデレる)サービス『罵倒少女:素子』は、2018年3月に丸井グループとタッグを組んで、春のキャンペーン『AIに罵倒される春休み』として再稼働。その際には、2016年に展開していた罵倒少女のアセット(資産)を改良し、「素子と主人公が一緒にショッピングに行くシチュエーション」という物語を組み込んだ“マルイ版仕様”として運用していたという。
また、人気マンガを原作としたドラマ『インベスターZ』放送の際には、同作の人気キャラクター・神代部長をAI化した『経済系対話AI 神代部長に訊け!』を展開。いずれも、ユーザーがテキストで語りかけると、それぞれがキャラクター性を持ってテキストで返信をしてくれる、というサービスになっている。 「キャラクター性をブラさずに、AIに自由対話をさせることが大事だけれど、それが難しい」(井上氏)。
しかし、こうした対話AIサービスと音声合成が組み合わさり、キャラクターAIとの会話が可能となれば、キャラクタービジネスにおいてより多くの可能性が生まれるであろうことは、想像に難くない。
続けて、emotivEの結束氏は、同社とSMEが共同で開発する「PROJECT Samantha」について話し始める。「PROJECT Samantha」では、入力されたテキストに対して、その意図を読み取り、アウトプットを返す手法などを取ってきた。これにより、ユーザーに「自分の言いたいことが伝わっている」と感じさせられる“人の心を動かすAI”として開発を続けてきたという。 これら、音声合成とAI技術の融合の実例として、九州電力が開発、運営するスマートスピーカー「QUUN」のデモが行われる。「QUUN」には複数のキャラクター設定が用意されており、家族それぞれの好みに合わせて、応答するキャラクターが変わってくるというのだから驚きだ。「QUUN」にはソニーミュージックの手がけるAIキャラクターも搭載される予定だという。
“キャラクター”は“最強UI”だった!?
井上氏は、こうした試みを通じて「PROJECT Samantha」チームが得た知見について、話しはじめる。前回の「AI MEETUP」でも触れていたが、2017年には「人はAIに愛を囁く」ということがわかった。そして、2018年には「人がAIに話しかけるためには、多くの動機が必要である」と、井上氏が言う。 人間は他者と会話する時に、無意識的に会話にかかるコストを計算している。そして、そのコストに見合った応答が返ってこなければ、人はそもそも話すことを止めてしまうのだそう。AIにとって自然会話は非常に難しいものなのだが、人間はAIにも人間と同等のクオリティを求めているということが、この1年を通じて学んだことなのだという。
しかし井上氏によれば、AIにキャラクターを導入することによって、こうした問題は解決することができる。
なぜなら、魅力的なキャラクターは、その存在自体が「しゃべりたい」という動機をユーザーに与えるからだ。キャラクターが介在することによって、AIと人間の会話コストはぐんと下がる。
つまり、「キャラクター=最強UI(ユーザー・インターフェース)」という持論が提唱された。
最後に、今後の「PROJECT Samantha」では、次なる自由対話AIのアプローチとして「意図から欲求へ」を掲げている。
結束氏らemotivEでは現在、認識モデル対話AI「OMOHIKANE」を開発中。これは「人の認識(欲求/感情/記憶など)をエミュレートして開発しているAIシステム」で、人が飽きずに継続して対話ができるよう「感情/欲求を理解し、性格/人物像を記憶し、話題・文脈をくみ取り、時間や場所に応じて、適切に応答することができるAIテクノロジー」なのだという。
OMOHIKANEを使えば、AIでありながらも、会話の意図を読み解くだけでなく、発話者の感情や過去にあった出来事などを加味した上で応答してくれるようになるとのこと。「欲求理解」「記憶」「状況」に応じたAI対話は、どれも他社では実現できていないemotivEだけのアドバンテージだと、結束氏は言う。
このOMOHIKANEは、2018年11月より「PROJECT Samantha」としてローンチ予定となっている。
以上をもって、クロストークは終了。その後、三宅さんを交えての質疑応答があり、OMOHIKANEを使ったビジネス展開の可能性や、音声合成技術による声優業界への影響といった、興味深いテーマが議論されたのだった。
こうして、「AI MEETUP2 -Powerd by Sony Music Entertainment- AIキャラクタービジネス最前線」は拍手喝采の中、幕を閉じた。
2018年はAIスピーカーの台頭もあり、いよいよ日常的にAIと寄り添いながら生きる現実がやってきた。キャラクター文化とAI技術の蜜月が、“AIといる生活”をより豊かにしてくれることに期待したい。
この記事どう思う?
0件のコメント