ニュース

シスコ、GPU負荷の高いAIワークロードに特化したAIサーバーファミリーを提供

 米Cisco Systems(以下、シスコ)は現地時間10月29日、NVIDIAアクセラレーテッドコンピューティングにより、GPU負荷の高いAIワークロードに特化したAIサーバーファミリーと、AIインフラストラクチャーへの投資をシンプルにしてリスクを取り除く「AI PODs」を、データセンターインフラストラクチャーポートフォリオに新たに追加すると発表した。これにより組織は、シスコのネットワーク機能を活用して、適応性とスケーラビリティに優れた方法でAIを導入できるようになるとしている。

 シスコの新たなソリューションでは、顧客の現状を問わず、AI導入を加速するために必要なインフラストラクチャーの構成要素を提供すると説明。このようなイノベーションにより顧客の既存インフラストラクチャーを拡張することで、複雑化を回避しつつ、成長とイノベーションを促進できるとしている。新たなソリューションは、コントロールと自動化を一元化できる「Cisco Intersight」によって管理され、設定から日々の業務まですべてをシンプルにできる。

 AI時代に対応するアクセラレーテッドコンピューティングとして、シスコはUCS AIコンピューティングポートフォリオに、GPU負荷の高いAIワークロードに特化した「UCS C885A M8」サーバーを新たに追加する。この高密度サーバーは、NVIDIA H100およびH200 Tensorコア GPUを搭載したNVIDIA HGXスーパーコンピューティングプラットフォームを活用することで、負荷の高いAIトレーニングおよび推論ワークロードに対応する。

 各サーバーには、AIネットワークパフォーマンスを高めるNVIDIA NICまたはSuperNICに加えて、GPUのデータアクセスを高速化し、堅牢なゼロトラストセキュリティを実現するNVIDIA BlueField-3 DPUを搭載している。これはシスコのAI専用サーバーポートフォリオの初となる製品で、NVIDIA HGXプラットフォームを基盤として構築された初の8-Wayアクセラレーテッドコンピューティングシステムだとしている。

 また、プラグアンドプレイのAIインフラストラクチャーとして、特定のAIユースケースや業界向けに特化したインフラストラクチャースタックのAI PODsを導入する。これにより、コンピューティング、ネットワーク、ストレージ、クラウド管理を組み合わせることで、スケーラビリティと効率性が向上するとしている。

 Cisco Validated Design(CVD)を基盤として構築されたAI PODsは、顧客にとって確実な出発点となり、顧客の特定のニーズに応じて容易に適応できると説明。あらかじめサイズや構成が決定されたインフラストラクチャーバンドルにより、エッジでの推論からNVIDIAアクセラレーテッドコンピューティングによる大規模クラスタまで、AI推論ソリューションの展開から不確定な要素が排除される。

 このソリューションには、エンドツーエンドのクラウドネイティブなソフトウェアプラットフォーム「NVIDIA AI Enterprise」が含まれ、データサイエンスのパイプラインを高速化し、AIの開発および展開を合理化できる。これにより、AIプロジェクトにおける価値創出までの時間の短縮、一貫したパフォーマンスの確保、リスクの軽減につながるとしている。

 これらは、最近シスコがリリースした、Cisco Silicon One G200チップ搭載の800G Nexus スイッチプラットフォームや、NVIDIAと共同開発したCisco Nexus HyperFabric AIクラスタソリューションなど、シスコのAIおよびデータセンターインフラストラクチャーのポートフォリオに、新たなソリューションとして追加される。

 Cisco UCS C885A M8は現在注文を受け付けており、2024年末までに顧客に出荷される予定。Cisco AI PODsは11月に受注を開始した。