InfiniBand 4XとHPCC専用インターフェイスのMPIスループットを比較したグラフ。InfiniBand 4Xのスループットは、メッセージサイズが大きくなると専用インターフェイスの3倍以上にも達する(出典:Mellanox Technology, Leadership in InfiniBand Solutions, June, 2003)。
|
InfiniBand 4XとHPCC専用インターフェイスのMPIレイテンシを比較したグラフ。InfiniBand 4XのMPIレイテンシは、メッセージサイズが大きくなるとQuadricsの約2分の1、Myrinetの約3分の1となる(出典:Mellanox Technology, Leadership in InfiniBand Solutions, June, 2003)。
|
ホストCPUの割り込みをほとんど発生させることなく、独立したシステムのメインメモリ間のデータ転送を行える。これは多数の計算ノードから構成されたHPCCにとって非常に重要な機能といえる(出典:Richard Libby - Technical Marketing Engineer, Enterprise Plaftorms Group, Intel Corp., Intel Architecture Uses PCI Express and InfiniBand to Deliver Winning Solutions for HPC, Intel Developer Forum 2004 Spring)。
|