ニュース

Microsoft、生成AI開発を加速するArmプロセッサ「Cobalt」とAIアクセラレータ「Maia」などの自社半導体を、来年早期に投入へ

 米Microsoftは15日(現地時間、日本時間11月16日)から、同社の年次イベント「Ignite 2023」を、米国ワシントン州シアトルのSeattle Convention Centerにおいて開催している。

 現地時間午前9時(日本時間11月16日午前2時)からは、Microsoft CEO サティア・ナデラ氏など、同社幹部による基調講演が行われる予定になっているが、それに先だってMicrosoftは報道発表を行い、Ignite 2023で発表される内容を明らかにした。

 その中で最も注目されるのは、同社が提供するパブリッククラウドサービスとなる「Microsoft Azure」などに向けて提供されるArmプロセッサ「Microsoft Azure Cobalt CPU」、AI学習向けのアクセラレータ「Microsoft Azure Maia」といった、Microsoftが自社ブランドで提供する半導体ソリューションだ。

 こうした製品は、「Microsoft Copilot」や「Azure OpenAI Service」などの同社の生成AIサービス基盤として、2024年の早期に活用が開始され、すでに第2世代の開発意向表明が行われるなど、今後も開発が続けられ、発展させていく意向が明らかにされている。

MicrosoftのArmプロセッサ「Cobalt 100」(写真提供:Microsoft)

水平分業が進む半導体産業、AWSはGravitonシリーズを、GoogleはTPUをすでに自社クラウドに投入している

 パブリック・クラウドサービスを展開するCSP(クラウド・サービス・プロバイダー)が、自社で設計したCPUやAIアクセラレータなどを自社のパブリック・クラウドサービスを通じて顧客に提供するのは、流行のトレンドとなりつつある。

 例えば、AWS(Amazon Web Services)はGravitonシリーズというArmプロセッサを投入しており、昨年の年次イベント「re:Invent 2022」ではGraviton 3の性能強化版となるGraviton 3Eを投入している。

 GravitonはArmプロセッサの高い電力効率という特長を生かして、ランニングコスト(具体的には電気代)をおさえて顧客に低価格で提供することで、従来のx86プロセッサとの差別化を実現している。そのほかにも、AIアクセラレータ「Trainium」、スマートNICになる「Nitro」などの独自の半導体製品をAWSのサービス向けの基盤として活用している。

AWSのGraviton 3(撮影筆者)

 Google Cloudも、TPU(Tensor Processing Unit)と呼ばれるAIアクセラレータを同社のサービスとして提供しており、Google Cloudの顧客がAI学習を行う際などの、選択肢の一つとなっている。TPUはAI学習に特化することで、CPUやGPUなどの従来の選択肢と比較して高い電力効率を実現しており、8月末に行われたGoogle Cloud Next '23では、「TPU v5e」という第5世代のTPUを発表していている。

GoogleのTPU v5e(撮影筆者)

 このように、AWSやGoogleといったMicrosoftの競合となるCSPは、いずれも独自の半導体ソリューションをすでに提供している。そうしたことができるようになった背景には、半導体業界の水平分業が進んだことが大きい。

 昔の半導体産業は、IDM(Integrated Device Manufacturer)と呼ばれる、半導体の設計から製造までを一気通貫に行うビジネスモデルが一般的だった。しかし、今はTSMC(Taiwan Semiconductor Manufacturing Company)のような、製造を受託して行うファウンダリーと呼ばれる製造専門の会社があり、AMD、NVIDIA、Qualcommのように、ファブレスと呼ばれる工場をもたない半導体メーカーが設計した半導体を、TSMCなどのファウンダリーで製造して販売するモデルが一般的だ。

 ここ近年はArmのように、IP(知的所有権)デザインと呼ばれる、一種の半導体設計図を提供するベンダーも現れ、そうした企業が提供するIPデザインを購入することで、より容易に半導体の設計を行えるようになっている。例えば、AWSのGraviton 3には、そのArmが設計したサーバー向けCPU「Neoverse」を採用していることが知られている。

 そのように半導体産業の水平分業が進んだ結果、事業会社自身が半導体を設計して、TSMCのようなファウンダリーで製造して、自社製品に組み込むのは一般的になりつつある。AWSのGravitonやGoogleのTPU、さらにAppleのiPhoneシリーズに搭載されている、Aシリーズのような一般消費者向けの製品でもそうした例が増えつつある。

MicrosoftのArmプロセッサ「Cobalt」とAIアクセラレータ「Maia」が生成AIの開発を加速する

 今回発表されたMicrosoft自社設計の半導体だが、Microsoftブランドの半導体という意味では、実は最初の製品ではない。Microsoftはすでに、一般消費者向けのWindowsタブレット「Surface Proシリーズ」で、「Microsoft SQシリーズ」と呼ばれるArmベースのSoC(System on a Chip)を搭載している。ただ、その設計そのものはQualcomm社のSnapdragonがベースで、それをMicrosoft向けにカスタマイズしたものという位置づけになっており、基になる製品があってそれをMicrosoftブランドにしたものがSQシリーズである。

 その意味で、今回発表されたArmプロセッサ「Microsoft Azure Cobalt CPU」、AI学習向けのアクセラレータとなる「Microsoft Azure Maia」は、Microsoft自身の開発チームにより、Microsoftのサービス向けにカスタマイズされた初めての製品になると言えるだろう。

 Microsoftはこれまでラック、サーバー機器のレベルでは自社設計のハードウェアを導入してきた。それにより、Microsoftのクラウドサービス全体の効率を改善してきたが、その最後のピースとして残されていたのが半導体であり、今回のCobalt、Maiaの投入で、より高効率なデータセンターを実現していくと説明している。

 Cobaltの最初の製品は「Cobalt 100」という製品で、64ビットのArm CPUが128コア構成になっている。Microsoftによれば、従来MicrosoftがAzureで提供してきたArmプロセッサと比較して、40%ほど電力効率が改善されているという。

 一方、Maiaの最初の製品は「Maia 100」で、5nmのプロセスルールで製造され、1050億トランジスタにより実現されている巨大チップになっており、クラウドベースのAI学習に最適化されている。

MicrosoftのMaia 100(写真提供:Microsoft)

 MaiaはMicrosoftとOpenAI(ChatGPTの開発元)のパートナーシップの中で、MicrosoftやOpenAIが生成AIアプリケーションの開発に活用しているLLM(大規模言語モデル)を開発する基盤として活用していく。従来、そうしたLLMの開発は、GPUなどで演算が行われてきたが、それをMaiaにシフトしていく可能性があることを示唆している。一般的に、AIアクセラレータはGPUのような汎用プロセッサに比べて電力効率に優れていると考えられており、AIの処理に特化したMaiaの可能性を示していると言える。

 また、MicrosoftはMaiaを搭載したラックやサーバー機器向けに、「液冷」の冷却装置を活用した専用ラックを開発し採用している。Maiaを顧客に提供する上で電力効率が高められており、より低コストで提供することが可能になっているわけだ。

Maiaのラック、左側にあるのが液冷の冷却装置(写真提供:Microsoft)

 Microsoftによれば、Cobalt、Maiaは来年の早い時期に提供が開始される計画で、まずは「Microsoft Copilot」や「Azure OpenAI Service」など、Microsoftの生成AIサービスやAzureの生成AIサービスなど向けに活用されていく。その後ほかのサービス向けにも順次提供されていく形となる。なお、今後に向けて第2世代のCobaltとMaiaの開発を行っており、今後も自社半導体の開発を続けていく開発意向表明も行われている。

Azure BoostのGA、AMD、NVIDIAのGPUのインスタンス提供開始など、生成AI向けにクラウドハードウェアを強化

 Microsoftは同時に、「Azure Boost」のGA(一般提供開始)を明らかにしたほか、AMD、NVIDIAの最新GPUをAzure経由で提供すると説明。生成AIの学習をクラウドで行いたい企業などのニーズに応えることを明らかにした。

 Azure Boostは、Azure内で動作しているハードウェアのネットワークとストレージを高速化する仕組みで、仮想マシンをAzureで動作させる時に発生するオーバーヘッドを低減する。それにより、リモートストレージを利用する場合のスループットが最大12.5Gbps/650K IOPSに高速化され、ローカルストレージの場合には最大17.3Gbps/3.8M IOPSに高速化され、CSPの提供するサービスとしては最高性能を実現していると、Microsoftは説明している。

 AMDが6月に発表した「AMD Instinct MI300 シリーズ・アクセラレータ」は、CPU+GPUのMI300Aと、GPUだけのMI300Xという2つの製品が用意されているが、今回Microsoftは、後者のMI300X(GPUのみ)を「ND MI300 v5」というインスタンスとして、来年の早い時期に提供開始することも明らかにされている。

AMDのInstinct MI300シリーズ(写真はMI300A、撮影筆者)

 NVIDIAのGPUに関するソリューションも拡張される。NVIDIAのH100 GPUを採用したインスタンスとして「NC H100 v5」のプレビューが開始される。また、NVIDIAが今週発表したH200 GPU(H100のメモリをHBM3eに強化したバージョン)を搭載したインスタンスも、来年に提供開始する予定であることも明らかにされた。

NVIDIAのH100 GPU(撮影筆者)