イベント
AIが新たな特異点を生む――、マイクロソフトの開発者向けイベント「de:code 2017」レポート
HoloLens開発者も来日
2017年5月26日 06:00
日本マイクロソフト株式会社は5月23・24日の2日間、ザ・プリンス パークタワー東京で、開発者向けイベント「de:code 2017」を開催した。
今年は「AI(人工知能)」と「MR(Mixed Reality)」をテーマに多くのセッションを開催している。基調講演には多くのMicrosoftのキーマンやゲストが登壇し、年に一度の大規模イベントを華やかに盛り上げた。
誰もがITの恩恵を受けられる社会を目指す
最初に登壇した日本マイクロソフト 執行役員 デベロッパー エバンジェリズム統括本部長の伊藤かつら氏は、開会の挨拶としてデベロッパーやアーキテクトなどデジタルテクノロジーにかかわる技術者に向けて次のように述べた。
「いまやデジタルテクノロジーはあらゆるところに存在し、技術者はこれまで以上にビジネスを変革するようなチャンスを得られるようになる。その一方で技術者がどの技術を選択するかが大きな意味を持つようになり、技術者にも責任が伴うようになっている。Microsoftもテクノロジーを提供する企業として、3つのことを気にかけている」。
その3つのうち、「1つ目はテクノロジーが人々に力を与え、人の可能性や創造性を助けるものであること。2つ目は次にテクノロジーがより多くの人が使えること。ITになれている人もそうでない人も、あるいは高齢者や障害を抱えている人などすべての人がITの恩恵を受けられるようにすること。そして3つ目が最も重要なことだが、これだけ多くの人が利用するテクノロジーの信頼性がきちんと確保されていること。私は4年前に『これからは技術者がヒーローになる時代が来る』と話したが、そんな時代がすぐ近くに来ている」(伊藤氏)。
AIテクノロジーで人がより多くのことをできるようにしたい
次に登壇した米Microsoft コーポレートバイスプレジデント&チーフエバンジェリストのスティーブン・グッゲンハイマー氏は、主にAIに関するさまざまな内容をデモンストレーションを交えて紹介した。
「昨年のde:code 2016でもAIやコグニティブサービスについてお話したが、わずか1年の間にこれらの分野は大きく進化した。モバイルファースト、クラウドファーストの時代になり、多くのデバイスが展開され、ほとんどのサービスのバックエンドはグローバルデータセンターや、グローバルクラウドインフラになっている。そして時代はさらに『Intelligent Cloud / Intelligent Edge』へと進化する。すべてのデバイスがEdgeへとデータを供給し、さらにEdgeはクラウドへとデータを供給する。そのすべての中心にはAI(Intelligent)が存在するようになる。MicrosoftはAIのテクノロジーに力を入れ、人々の能力を増幅させ、人がより多くのことをできるようにしたいと考えている」。
グッゲンハイマー氏が最初に紹介したのは、意外なことにLINEやTwitterを通じて会話可能なAIとして公開されている女子高生AIの「りんな」と、3月末ごろから期間限定で公開された“俺様”な男性キャラクター「りんお」だ。デモでは「りんお」を使ってAIとの自然な会話を紹介した。
2015年に登場して話題になった「りんな」だが、日本マイクロソフトが開発していることを知らない人も多いのではないだろうか。同社は「りんな」や「りんお」の作成を通して、ビジネスやブランドにふさわしいキャラクターを産みだしていく研究が、今後も重要になると感じているという。
AIのエージェントがより身近になった際、例えばコールセンター業務などでAIを活用する場合、企業のブランドイメージにふさわしいキャラクターが必要になることは明らかである。この研究が、今後のAI活用に重要な役割を果たしていくことは間違いないだろう。
続いては、画像認識に関連する技術が紹介された。What Plantという簡単なサンプルアプリで植物の写真を撮影し、画像認識技術によってその植物が何かを表示するというもの。実際に会場近くで採取したカエデの葉を撮影してアプリを実行すると、「Japanese Maple(日本のカエデ)」と表示された。
このアプリのバックエンドにはMicrosoft Azureの画像認識AI技術が使用されており、最初の学習用に必要なトレーニング画像もそれほど多くはないという。さらに、予測精度を上げるためにアクティブラーニングを実施すると、過去の画像から一番インパクトのある画像を自動的に探索することもできる。さらにデータを追加することで精度をより高めることができるという。
続いてチャットボットのシステムのデモが行われた。おいしいレストランをBingで検索し、その結果からチャットボットを使ってオススメのメニューを質問するという内容。このチャットボットは「Adaptive Cards」というフレームワークを使用しており、Skypeをはじめ、Slackなどさまざまなメッセージングサービス向けの、カード型インターフェイスを開発できるという。
音声認識や自動翻訳も、この1年で大きく進化している。今年、Microsoftは自動翻訳エンジンを、これまでの統計的機械翻訳の手法からディープラーニングによる手法に変更している。この変更によって翻訳結果はより自然言語に近いものとなり、継続的に学習し続けることで翻訳の精度はますます向上し、より自然な会話が可能になっていく。日本語への対応も、テキスト翻訳だけではなく音声による自動翻訳が可能だ。
SkypeやPowerPointからも利用できることで最近話題になった自動翻訳機能についての紹介では、Microsoft translatorによる「英語」「スペイン語」「日本語」の同時翻訳が紹介された。残念ながら会場のデモでは、それぞれの言語からの自動認識、およびテキスト翻訳のみで翻訳結果の音声読み上げは披露されなかったが、3人が別の言語を話してもリアルタイムで翻訳されることが紹介されている。
さらに、グッゲンハイマー氏は、Preferred Networksとディープラーニング分野で協業したことを発表し、同社の代表取締役、西川徹氏を紹介した。Preferred Networksは自動車などの製造業を中心にディープラーニングの技術を提供している企業だが、Azure上で同社のディープラーニングのオープンソースフレームワーク「Chainer」を提供することを明らかにした。この提携について西川氏は次のように述べている。
「オープンソースのフレームワークを公開することで、Preferred Networksの技術をアピールするという目的あるが、人手不足のディープラーニングの分野に新たな人材を育成するためのトレーニングができることを期待している」(西川氏)。
なお、この協業については今年の2月ごろにMicrosoftから提案され、実質作業期間は1カ月程度でAzureからの提供が可能になったという。新たな技術を取り入れることに対するMicrosoftの速度感に、西川氏はとても驚いたという。
グッゲンハイマー氏は、これらのデモなどを踏まえ、AI技術の進化について次のように述べた。
「Intelligent Cloud / Intelligent Edgeによって、今後は膨大な量のデータが集約され、AIがコントロールしていくことになる。私たちはAIを使ってビジネスプロセスを再定義することが必要だと考えている。MicrosoftのAI技術は、その多くがPIとして多くの開発者に提供されている。CortanaなどのAIエージェント、画像認識技術、音声認識技術、自動翻訳技術などAIの技術を誰でも使えるようになることによって、多くの業界で革新的なビジネスのイノベーションをもたらすことになるだろう」(グッゲンハイマー氏)。