イベント

AWS、re:Invent 2018でインフラ関連のアップデートを発表 100Gbpsネットワーク、カスタムチップ、マイクロVMなど

 Amazon Web Servicesは11月26日(米国時間)、米国ラスベガスで開催されたの年次カンファレンス「AWS re:Invent 2018」(11/26~11/30)のイベント「Monday Night Live」において、「Amazon EC2」の新インスタンスやマシンラーニングサービス「Amazon SageMaker」のアップデートなどを発表した。

 イベントのホスト役を務めたAWS グローバルインフラストラクチャ&カスタマサポート部門 バイスプレジデント ピーター・デサンティス(Peter DeSantis)氏は「昨日のホームランは今日の勝利を約束しない。AWSはインフラへの投資を止めることはない」と語り、No.1クラウドプロバイダとしてインフラ関連の強化を重ねていく姿勢をあらためて見せている。

AWS グローバルインフラストラクチャ&カスタマサポート部門 バイスプレジデント ピーター・デサンティス氏

EC2の新インスタンスやネットワーク機能などを発表

 26日に発表されたアップデートの概要は以下の通り。

AWS Global Accelerator(GA)

 複数のリージョンをまたいだシームレスでセキュアなアプリケーション運用を実現するロードバランサー。ユーザーから見て地理的に最も近いAWSエッジロケーションに2つの固定IPアドレスを自動でエニーキャストし、ユーザーが(インターネットではなく)AWSグローバルネットワークを経由してアプリケーションをホストするエンドポイントにアクセスすることが可能になる。Application Load BalancerやNetwork Load Balancerとの併用も可能。

グローバルで複数のリージョンを利用しているユーザの拠点間接続のエクスペリエンスを改善するAWS Global AcceleratorとAWS Transit Gateway
AWS Transit Gateway

 VPC、オンプレミスのデータセンター、AWSアカウントなどの複数の拠点間接続のハブとなるサービス。最大で5000のVPCを50Gbpsで接続可能で、2019年にはDirect Connectもサポート予定。現時点の対応リージョンはバージニア、オハイオ、カリフォルニア、オレゴン、アイルランド、ムンバイ。

Amazon EC2 A1インスタンス

 ARMベースのカスタムチップ「AWS Gravitation Processor」を搭載した、スケールするワークロードに適したインスタンス。vCPUの数に応じて5つのサイズが用意されており、最大サイズの「a1.4xlarge」はvCPU×16、メモリ32Gb、EBS帯域幅3.5Gbpsの構成(ネットワークはいずれのサイズも最大10Gbps)。

 サポートOSはAmazon Linux 2、Red Hat Enterprise Linux、Ubuntuで、マイクロサービスやWebサーバーなども含まれる。現時点の対応リージョンはバージニア、オハイオ、オレゴン、アイルランド。

100Gbpsネットワーキング

 一部のインスタンス(後述)で100Gbpsのスループットを実現。

Amazon EC2 C5nインスタンス

 HPCやビッグデータアナリティクスなどの次世代コンピューティングに最適化された「Amazon EC2 C5」インスタンスを拡張し、最大サイズ(c5n.18xlarge)で100Gbpsネットワークに対応したインスタンス。現時点の対応リージョンは、バージニア、オハイオ、オレゴン、アイルランド、GovCloud(US-WEST)。

最大で100Gbpsのスループットを提供するC5nインスタンスは昨年発表されたNitroをベースにしている
Amazon EC2 P3dnインスタンス(12月提供予定)

 マシンラーニングに最適化された「Amazon EC2 P3」インスタンスを拡張したインスタンス。C5nインスタンスと同様に100Gbpsネットワーク帯域をサポートするほか、32GBの“Volta”こと「NVIDIA Tesla V100 GPU」を8個、vCPU(AVX実装)を96個搭載し、2TBのNVMe SSDをサポート、さらに新サービス「Elastic Fabric Adapter」(後述)にも対応。

Elastic Fabric Adaptor(プレビュー)

 強力なコンピューティングパワーを要求するHPCアプリケーションに適したEC2インスタンス(C5nおよびP3dn)をサポートするネットワーキングインターフェイス。数千コアの大規模クラスタでGPUをダイナミックにスケールするようにデザインされている。

GPUのダイナミックスケールを可能にするElastic Fabric Adapter
Amazon SageMaker Neo(近日公開)

 AWS環境(EC2インスタンス、SageMakerエンドポイント、Greengrass実装デバイス)に最適化されたディープラーニングのためのモデルコンパイラで、従来の2倍のパフォーマンスを実現。フレームワークとしてTensorFlow、Apache MXNet、PyTorch、ONNX、XGBoostをサポートする。

 現時点での対応アーキテクチャはIntel、ARM、NVIDIAで、将来的にCadence、Qualcomm、Xilinxもサポート予定。また、近日中にオープンソース(Apache Software License)として公開される。

TensorFlowやMXnetなどメジャーなフレームワークに対応したディープラーニングのモデルコンパイラ「SageMaker Neo」はオープンソースで公開予定
Firecracker(GA)

 セキュアで高速なサーバーレスコンピューティングを実現する仮想化機能。KVMを利用した軽量のマイクロ仮想マシン(microVM)を125ミリ秒で起動できる。またオーバーヘッドが5MB/microVMと小さいため、数千単位の仮想マシンを実行することも可能。オープンソース(Apache Software License 2.0)としてすでにGitHubで公開済み

サーバーレスコンピューティングにセキュアで高速な仮想化機能を提供するFirecrackerもオープンソースで提供開始
Firecrackerのアーキテクチャ

*****

 昨年に引き続き、アンディ・ジャシー(Andy Jassy)CEOやヴァーナー・ボーガス(Werner Vogels)CTOのキーノートに先駆けて行われた、インフラ統括責任者であるデサンティス氏のトークライブは、EC2インスタンスをはじめとするAWSクラウドを支えるインフラが、イノベーションを重ね続けていることを既存の顧客に示す狙いが強い。

 例えば今回発表されたC5nインスタンスなどは、昨年のre:Inventで発表されたハイパーバイザ「Nitro」をベースにしているが、この1年の間に第4世代まで進化し、100Gbpsという超高速スループットを実現している。

 また、マシンラーニングサービスのSageMaker Neoのアップデートをインフラ関連のトークライブで発表したのも、ハードウェアと密接にかかわる機能であることが大きい。

 AWSクラウドのコアであるインフラが進化し続けるからこそ、その上で動くクラウドサービスも進化し続けることができるのであり、それをre:Inventの最初に確認することでユーザーはその年の新たな発表にさらなる期待を寄せる。

 re:Inventの参加者が年々増加している要因は、そうしたユーザーの期待を裏切らないAWSのアプローチにも潜んでいる。