ニュース

Google、推論に特化したエッジ向けTPU「Edge TPU」をIoT向けに外販へ

4TOPSの性能を2Wの消費電力で実現

 Googleは、7月24日~7月26日(現地時間)の3日間にわたり、同社のクラウドサービスである「Google Cloud」の戦略や技術、開発ツールなどについての説明を行うイベントとなる「Google Cloud Next '18」(以下Next '18)を、米国カリフォルニア州サンフランシスコ市にあるモスコーン・センター・サウスで開催している。

 2日目となる7月25日も午前中からGoogle Cloudの幹部による基調講演や、各種の技術セッションなどが行われ、Google Cloudに関する新しい発表などが行われている。

 そうした発表の中で最も注目を集めているのは、Googleが7月25日午前に発表した、IoTなどエッジデバイス向けの半導体製品となるEdge TPUだ。

 TPUはTensor Processing Unitの略で、Googleはこれまでクラウド側での推論に特化した第1世代、それに学習の機能を付加した第2世代、そして性能を引き上げた第3世代と発表してきており、第1世代、第2世代に関してはすでにGoogle Cloudのサービスとして活用されている。

 今回発表されたEdge TPUは、それらのクラウドサービス側での利用を前提とした製品とは完全に異なり、いわゆるエッジ側、つまりはIoT(Internet of Things)デバイスやゲートウェイ、エッジコンピューティングデバイスなどをターゲットにした製品で、4TOPS(Trillion Operations Per Second)/2W時という高電力効率な推論性能を発揮するとGoogleでは説明している。

 出荷は2018年秋を予定しており、NXPのクアッドコアArmプロセッサを内蔵したSoC、Wi-Fi、Microchip社のセキュアエレメントを1つのモジュールに搭載した「SOM(System on Module)」と、I/O関連の機能を搭載した「ベースボード」の2つから構成されている開発キットを提供する予定で、顧客が製品化する場合にはSOMを販売する形で提供していく予定だ。

Googleが発表したEdge TPUを搭載した開発ボード、中央右の銀色のヒートスプレッダーの下にEdge TPUが搭載されている

TensorFlow Liteに特化したEdge TPU、2W時4TOPSの性能を発揮する

 今後、IoTなどの新しいアプリケーションが爆発的に増えることを見越して、エッジ向けのディープラーニング(深層学習)の推論に特化したデバイスが、1つの流行のようになっている。

 例えば、AppleのA11 Bionicや、HUAWEI Technologies傘下企業であるHiSilicon TechnologyのKirin 970など、ディープラーニングの推論を低い消費電力で行うアクセラレータ機能を内蔵したSoCが、すでにスマートフォン向けに投入されている。

 またNVIDIAのDLA(Deep Leaning Accelerator)のように、自動運転向けの半導体(Xavier)に搭載されているアクセラレータも登場しているなど、低消費電力でディープラーニングの推論を行える半導体が、半導体業界のトレンドとなっている。

Edge TPUを説明するスライド

 今回Googleが発表したEdge TPUも、そうした流れの延長線上にある製品となる。Googleによれば、クラウドサービス向けに特化してディープラーニングの学習と推論の両方に使えるように設計してあり、消費電力が問題にはなっていなかった従来のTPUとは異なり、Edge TPUは推論に特化した製品となる。

 アーキテクチャ上の具体的な違いについて、Googleは現時点では説明していないが、Google Cloud IoT製品管理責任者 アンソニー・パスマール氏は「Edge TPUは4TOPSの性能を実現している、そして消費電力は2Wの平均消費電力となる」と述べ、2Wの消費電力で4TOPSのディープラーニング演算性能を発揮すると説明した。なお、製造プロセスルールなどは現時点では非公表。

米国の1セントコインよりも小さなEdge TPUのパッケージ
Edge TPUを搭載したSOMを紹介するGoogle Cloud IoT製品管理責任者 アンソニー・パスマール氏

 Edge TPUは、Googleがマシンラーニング/ディープラーニングの推論向けにリリースしているフレームワークTensorFlow Liteに対応しており、プログラマーがTensorFlow Liteを利用して学習済みのモデルを構築すると、TensorFlow LiteのランタイムがCPU、GPU、Edge TPUの中から最適な演算器を選んで演算を行う。

 例えば、システムにCPU、GPU、Edge TPUがあればEdge TPUを利用。Edge TPUがなければGPU、CPUの順に試していき、ワーストケースではCPUで演算を行うといった具合に演算を行っていく。

Edge TPUのソフトウェア的なアーキテクチャ、TensorFlow Liteを利用して開発を行う

【お詫びと訂正】

  • 初出時、フレーワークの名称をTensorFlow Lightとしておりましたが、TensorFlow Liteの誤りです。お詫びして訂正いたします。

顧客にはNXPのSoCが搭載されたSOMモジュール形状で提供、I/Oポートを備え、ベースボードと組み合わせて利用できる

SOMとベースボード

 GoogleによればEdge TPUは、SOM(System on Module)という形状のモジュールで顧客に提供される。SOMには、クアッドコアのArm CPUとGPUを内蔵したNXPのSoC、Edge TPU、Wi-Fi、Microchipのセキュアエレメントが搭載されており、専用コネクタでベースボードと呼ばれるI/Oポートなどを搭載した基板にドッキングして利用できる。

 GoogleからはSOMとその仕様が顧客に提供され、顧客は自前でベースボードを設計したり、サードパーティが販売するベースボードを買ってきて自社製品に組み込んだりして、出荷することができる。

 標準のベースボードを搭載した開発キットは、2018年秋に顧客に対して出荷される予定。

SOMとベースボードの表と裏

 なお、GoogleがTPUのような自社のクラウドサービス向け半導体を外販するのは今回が初めてだが、クラウド業界では、こうした自社のクラウドサービスに特化した半導体を販売するというのが1つのトレンドになってきており、4月にはMicrosoftが、Azure Sphereと呼ばれる、半導体メーカーと共同して開発したマイクロコントローラを顧客に提供し、クラウドサービスからエッジまで一気通貫に提供するという戦略を明らかにしている。

 GoogleのEdge TPUもそうした戦略の延長線上にあると考えられるが、ディープラーニング/マシンラーニングによるAIを強みの1つとしているGoogle Cloudが、エッジAIに注力したEdge TPUから始めるというのは差別化の1つになるだろう。

G Suiteの新しいGmailの一般提供を開始、Google Drive for Enterpriseの単体契約が可能に

 このほか、GoogleはG Suiteの機能強化として、新しいGmailの一般向け提供を開始したことを明らかにした。

 G Suite用の新しいGmailは、「redesigned security warnings」「snooze」「offline access」などの新機能を搭載しており、以前よりもセキュリティ性と使い勝手が億乗していることが大きな特徴となる。

 また、2017年に導入されたCloud Search(G Suiteユーザーのクラウドストレージなどに置かれているデータを検索することができる機能)も拡張され、自社データだけでなく、他社が所有するデータも検索することが可能になり、インデックスをクラウドないしはオンプレミスに格納できるようになる(G SuiteのEnterprise SKUの顧客が対象)。

 このほか、Google Voice for G Suiteのアーリーアダプタプログラムの開始、法人向けのG-DriveとなるGoogle Drive for Enterpriseが、G Suiteの顧客ではない企業ユーザーも単体で契約できるようになったことなどが発表された。

G Suiteの機能強化
Cloud Searchの画面
Google Voice for G Suiteの画面

 またGoogleは、Shielded VM、Binary Authorizationなどの新しいセキュリティ機能をGoogle Cloudに追加したこと、Google Cloudのデータ解析プラットフォームとなるBigQueryにマシンラーニングを利用したモデルを適用できるようにした「BigQuery ML」がベータテストになったことなども発表している。

Google Cloudに追加される新しいセキュリティ機能
BigQuery MLがベータテストになった