編集プロダクション<P>エディット|教材編集・資格書編集・一般書編集

エディットお役立ちレポート

2018-04-05 第8回コンテンツ東京・第2回AI・人工知能EXPOに参加して

4月4日〜6日の3日間、第8回コンテンツ東京と第2回AI・人工知能EXPOが国際展示場の東1〜4ホールで開催された。コンテンツ東京のほうは、第4回コンテンツマーケティングEXPO、第7回クリエイターEXPO、第6回コンテンツ配信・管理ソリューション展、第6回映像・CG制作展、第4回先端デジタルテクノロジー展、第8回ランセンシングジャパン、第2回グラフィックデザインEXPOから構成されている。

私は、5日に参加した。

多分、いちばん来訪者が多かったのは、東3ホールのAI・人工知能EXPOと東1ホールの先端デジタルテクノロジー展だったと思う。後者については、いろいろな実演や体験が人気を集めていた。特にVR/ARなどのところは、多くの人たちが並んでいた。

展示の感想の前に、二つの講演会について触れる。一つは、販促・マーケティング関係の講演の「動画ブランディング」、もう一つはAI・人工知能関係の講演「AI×クリエイティブ」の講演である。以下、簡単に内容を紹介し、感想を書く。

●特別講演1 動画ブランディング
アカデミー賞公認短編映画祭から学ぶ 動画マーケティングの最前線
〜ブランデッドムービーの可能性〜

サイボウズ(株)代表取締役社長 青野 慶久
サイボウズ(株)コーポレートブランディング部長 大槻幸夫
ショートショート フィルムフェスティバル &アジア代表 別所 哲也
ショートショート フィルムフェスティバル & アジア チーフ・プロデューサー(株)FROGLOUD 代表取締役 諏訪 慶

この講演は、まず始めに諏訪慶氏から「ショートショート フィルムフェスティバル」の概略の話と紹介があり、これからのブランデッドムービーの可能性について説明があった。その後、サイボウズの大槻幸夫氏から、一時期話題になった「大丈夫」という動画を創った経緯と、反響の解説があった。この短編映画は、現在ではYouTubeでも見られなくなっている。「大丈夫」という映画は、ワーキングマザーが、仕事と育児で大変な様子が描かれている。そして、サイボウズについては、最後に制作会社としてテロップが流れるだけである。

しかし、この映画は話題になり、サイボウズの認知度が上がったという。そして、サイボウズが会社として発展していくのに貢献したようだ。ちなみに、サイボウズとは、『グループウエア』のサービスをしている会社であり、企業理念が「チームワークあふれる社会を創る」である。いわば、サイボウズの企業理念を認知させるために映画であったとも言える。こういう映画のことを「ブランデッドムービー」という。

ブランディング(branding)とは、ブランドに対する共感や信頼などを通じて顧客にとっての価値を高めていくという、企業や組織のマーケティング戦略である。よく知られているのは、ソフトバンクのCMや、AUのCMなどもそうだともいえる。

講演会の後半は、サイボウズの社長の青野義久氏と別所哲也氏との対談で、主にサイボウズの最近のブランデッドムービーのあり方の話があった。

サイボウズの取組はとてもおもしろかった。最近の動画は、「アリキリ」で、これはシリーズになっていて、「働き方改革」に対する、チームワークを企業理念の中心に据えているサイボウズからの提案となっていて、話題になっている。サイボウズのHPにいくと、この動画が見られるようになっている(https://cybozu.co.jp/ )。

最近のテレビにおける企業広告の変化の意味が何となく分かる講演だった。

●特別講演2 AI×クリエイティブ
手塚治虫がデジタルクローンで甦る!?
マンガ家AIプロジェクトメンバーによるスペシャルトークショー

司会役:手塚プロダクション取締役 手塚 眞
公立はこだて未來大学副理事長 松原 仁
電気通信大学教授、人工知能先端研究センター長 栗原 聡
ドワンゴ人工知能研究所長 山川 宏

こちらの講演は、昨年に引き続き同じメンバーによる講演(出席者については、練馬大学第7研修室の「手塚治虫デジタルクローン」Project起動中というHP(http://www.7ken.org/ )参照。ここでは、この特別講演の内容紹介と、それぞれの発表が順次掲載される予定になっている。現在は、昨年の講演会の発表が掲載されている)

最初に、手塚氏から、昨年と同じように、手塚治虫氏のマンガ制作方法を交えつつ説明がなされた。

これらが、手塚治虫が持っていた創造性の核になるものだという。 今回も、こうしたポイントをAIがどう実現するのかをそれぞれの参加者が自分の立場から提案するというもの。

しかし、昨年からそんなに発展しているようではなかった。松原氏は、昨年話した短編小説への応募はしているが、まだ受賞できていないという報告と、現在俳句を作らせる研究を行っているという報告があった。俳人の大塚凱の俳句を学習して、創らせているが、それなりの俳句ができているようだ。また、学生が手塚マンガのリメイクプロジェクトを始めているという報告があった。

栗原氏は、シナリオを自動生成させることに挑戦しているが難しいようだ。

山川氏は全脳アーキテクチャを目指して、人間の脳を真似ることを考えているが、まだ、人間が脳の中で何をやっているかが解明されていないので、今後の研究が必要と言っていた。

全体として、昨年よりトーンダウンしているような印象だ。多分、何らかのブレークスルーがないと次の段階にいくのは難しいのかもしれない(ということで、上記のHPを時々見ていただきたい。また、昨年の「コンテンツ東京とAI・人工知能EXPO」ついて私のレポートが、エディットのHPにアップされている ので参考に)。

■会場見学と感想

全体像

さて、AI・人工知能EXPOは、昨年とは少し変わっている。昨年は、第1回目でもあり、出展者は、訳も分からず、人工知能やAIという言葉をどこかに入れて展示をしていたが、今回のメインは「ディープラーニング(deep learning)」だった。そして、その分、地味ではあったが、着実に実績づくりに向かっているように思われた。

そのことを象徴していたのは、AI・人工知能EXPOの会場のメインの入り口を入って、右が株式会社UEIで、左側が株式会社モノゴコロであったことである。UEIは創業16年の会社だが、人工知能の開発を中心に据えて活動を始めたのが2016年。モノゴコロは、2016年創業の会社である。とにかく、若い企業である。

展示では、どちらもディープラーニングを使ったAIデモをしていた。UEIのほうは、カプセルネットワークを使った「DeepMeijin」を展示していた。これは、AlphaZeroを参考にして教師無し学習でポーカーをできるようにしたものだ。一応、参加者と対戦ができるようになっていた(私もやってもたが、学習経過時間24時間のものには、私が勝ってしまった)。

また、モノゴコロのほうは、ヴァーチャルアーティストIAが登場して、観客に向かった話したり、歌を歌ったりするというもの。前方にカメラがあり、観客の様子を常に撮影していて、AIによる画像認識処理をさせるというもの。前面のモニターに円グラフが表示されていて、そこに観客の反応の分析結果を表示させていた。拍手が増えているよとか、笑顔が増えているよとかが円グラフのパーセントで表せられていた。

こんなことができるというデモではあるが、ディープラーニングで何ができるのかがよく分かるような工夫もなされていた。

UEIのブースでは、名刺を渡すと『人工知能と仲良くなる本』を配布してくれたが、これはシンプルなリーフレットだが、現在のAIの姿がよく分かる内容になっていてよかった。

ただ、今年の展示の中には、本命である自動運転の技術とか、自然言語処理の技術などは詳しくは公開されていないようだった。

ところで、昨年の末に、日本ディープラーニング協会(http://www.jdla.org/ )という組織ができている。ここの正会員社名を以下に書いておく。

ABEJA、ブレインパッド、ディープコア、FiNC、GRID、 IGPIビジネスアナリティクス&インテリジェンス、エヌビディア合同会社、 PKSHA Technology、Singularity、STANDARD、UEI、クロスコンパス、 zero to one

もちろん、他のブースは、デモだけではなく、こんなことができますよという自社の強みをアピールしていた。

しかし、何となく落ち着いているような感じだった。もうすぐ、シンギュラリティが来て、人間がコンピュータに支配されるとか、人間のやることがなくなってしまうというような発言は消え、人工知能はどんな活用の仕方をしたらよいかというところでいろいろな提案が出されていた。

例えば、ブレインパッドの提案は、こんな提案だった。

「食品製造ラインにおける異物混入や不良品の検知の紹介」として「機械学習/ディープラーニング活用事例」をデモしていた。キューピーからの依頼で、1センチ角に切ったジャガイモの選別作業の合理化をしてほしいとのこと。人間だと、結構大変な作業だし、緊張して疲れる作業のようであるらしい。これに、ディープラーニングの画像認識処理を活用して、選別させるシステムを作ったもの。面白かったのは、はじめは、「不良品」や「異物」と思われるものをたくさん見せて学習させ、そのうえで「不良品」や「異物」を見つけるようにしたらうまくいかなかったという。なぜなら、新しい不良品は、前のものと違っている場合が多いから。それで、正しいというか、正常なものをたくさん見せて、そうでないものを不良品や異物としてチェックさせるようにしたら、うまくいったという。

結論は、人間とそう変わらない作業ができることになり、実際に活用されるようだ。

個別紹介

以下、この他に立ち寄った企業のブースの簡単な紹介。

●NTTグループ

CorevoというのはNTTグループの人工知能を活用した取組の総称だが、4種のAIを中心に、研究開発をしている。

  • 人間の発する情報をとらえて、意図・感情を理解する=Agent-AI
  • 心と体を読み解き、深層心理・知性・本能を理解する=Heart-Touching-AI
  • 人間・モノ・環境を読み解き、瞬時に予測・制御する=Ambient-AI
  • 複数のAIがつながり社会システム全体を最適化する=Network-AI
●日立グループ

3カ所に分かれて展示していたが、一方では、ディープラーニングを使って、匠の技術を実現する試み(不良品検査など)や帳票類の入力処理の自動化などを紹介していた。もう一つは、NHKのテレビでも紹介されていたが、食事の写真を撮るとそれの栄養成分分析ができるようなシステムを紹介していた。

●KDDIエボルバ

AIチャットボットの構築から運営までの紹介。前回に引き続き、チャットボットは、いろいろな開発が続いているようだ。将来、銀行の窓口などは、人ではなく、AIによる応答になると予測されている(実際、大手銀行は、採用を控えて合理化を考えているようだ)。

●メディアドゥ(MediaDo)

昨年は講談社と提携して校正ソフトを開発して紹介していたが、今年は「音声自動文字起こし×AI要約」という展示をしていた。その場でしゃべると自動的に文字になって表示されていた。また、テキスト化された文章を要約する機能も展示されていた。多少は、誤変換などもありそうだが、かなり実用的になっていると思った。

●さくらインターネット

レンタルサーバーの会社だが、「高火力」というAI・ディープラーニングに最適なGPUサーバーをレンタルできるサービスの紹介。

初期費用込みで100万円以上かかるのだが、将棋でプロ棋士を破ったコンピュータ将棋プログラムのボナンザはここのサーバーを使っていたそうだ。ディープラーニングをシステムとして稼働させるためには、普通のCPUでは、力が足りなくて、GPUを使うことになる。

すぐ隣にHPCシステムズというところが、GPUの展示をしていた。東大や京大などにレンタルしているそうだが、購入すると1000万円以上するようだ。しかも、1年もするとまた進化した物が出るような世の中なので、普通はあまり買わないようだ。

そういえば、グーグルもクラウド上でディープラーニングを試すことができるサービスをしている。

感想

先ほども書いたが、全体の感想としては、だいぶん落ち着いた展示になっていたように思った。第三次人工知能ブームは多分、これから静かな時期になると思われるが、かつてのような冬の時代になることはなさそうだと思われる。

ところで、ディープラーニングでやっていることは、画像認識処理、音声認識処理が中心だが、基本的に学習してできることは、「セパレーション」と「グルーピング」だけだと言われている。

<ものすごく簡単に言うと、ディープラーニングとは「分類」ができます。種類や性質や系統など、何らかの基準に従って区分することを「分類」といいますよね。ディープラーニングがやっているのは区分だと考えてください。<中略> ディープラーニングは「機械による目の獲得」だと言われています、なぜなら、この分類の精度が高すぎて、あたかも人間の目のように物事を認識しているように感じられるからなのです。>
(田中潤・松本健太郎著『誤解だらけの人工知能──ディープラーニングの限界と可能性』光文社新書/2018.2.20)

つまり、ディープラーニングとは、ニューラルネットワークを使った機械学習のことであるが、そのシステムは区別(セパレーション)と分類(グルーピング)をしているわけで、現在のところできるのはそれだけと言う。

しかし、今、このディープラーニングの手法が、いろいろと開発されて成長している。2017年には、ディープラーニングの生みの親のようなカナダのトロント大学のジェフリー・ヒントン教授が、自分が提案した従来の「畳み込みニューラルネットワーク(CNN)」の構造的な欠陥を指摘して、AIの世界に衝撃をあたえた。しかし、その後、彼は「カプセルネットワーク」と呼ばれる新しいディープラーニングを発表して、さらに高度な学習ができるようになっている。

何が違うかというと、CNNは特徴量(学習して獲得した判断材料)を単なる「特徴の強さ(スカラー量)」で表現していたが、カプセルネットワークでは「特徴の向きと長さ」というベクトル量で扱うことになっている。そのため、少ない学習データでも対象の特徴を素早くつかむことができるようになっていると言われている。

(これについては、UEIの非売品のパンフレット『人工知能と仲良くなる本』を参照。ちなみにUEIのCEOは中公新書で『教養としてのプログラミング口座』・『実践としてのプログラミング講座』を書いている清水亮氏である。)

未来にむけて

先ほどの『誤解だらけの人工知能』の田中潤氏の説によれば、第1次ブームおける人工知能は「すぐに答えを教えてくれる人工知能」、第2次ブームのときは「物知りな人工知能」で、今進んでいる第3次ブームは「学習する人工知能」だそうだ。そして、彼によれば第4次があるとすれば、「意味を理解する人工知能」になると言っている。

昨年の私のレポート で、人工知能は、大きく分けて、「強いAI」と「弱いAI」に区別されていると書いた。

<本当は、この「強いAI」を人工知能と呼ぶべきであるが、両方とも人工知能と呼ばれている。「強いAI」とはArtificial General Intelligence(AGI)のことで「汎用人工知能」と言われているものだ。デジタル手塚治プロジェクトは、このAGIを目指しているものである。AlphaGOは、特化型AIで、弱いAIに属する。プロジェクトの人たちは、「弱いAI」をいろいろ組みあわせて、AGIを作れると考えているようだ。>
2017年6月29日のレポート参照

その時は、上のように「弱いAI」と「強いAI」を区別していた。

しかし、田中潤氏によれば、それは間違いで、「強いAI」は「意味を理解している人工知能」のことだという。そういう意味では、まだ「強いAI」は生まれていないということになる。多分、第4次人工知能ブームが来るとすれば、「意味を理解する人工知能」が生まれたときだと思われる。その先に汎用性が高まり、AGIが生まれ可能性があるという。そして、その段階になって、もしあり得るとすればシンギュラリティに近づくのではないかとのこと。

今のところ、AIの展示場でいろいろ提案されているのは、この「弱いAI」、つまり、特化型のAIを使ったいろいろな試みだ。特に、画像認識処理、音声認識処理、自然言語処理などで「ディープラーニング」がある種のブレークスルーを起こしていることは事実である。こうしたことができるのは、コンピュータのハード面の進化と、インターネットなどによる情報の集積によるビッグデータの存在に支えられて、より学習が進んだためだと思われる。

こうした、AIの技術は、しかし、あらゆる分野に応用されていく可能性がある。出版業界でも、こうした技術が安いコストで利用できるようになれば、いろいろな技術が導入されてくる可能性がある。いまのところ、ディープラーニングを応用するには、コストがかかり過ぎて、トヨタ自動車の利益くらいしかない市場規模の出版界では難しそうだ。

さて、来年はどうなっているのだろうか。楽しみと同時に不安でもある。

<参考資料>

(文責:東京オフィス 塚本鈴夫)