ニュース

富士通研究所、複数のGPUを使ったディープラーニング学習処理の高速化技術を開発

 株式会社富士通研究所は9日、スーパーコンピューターのソフトウェア並列化技術を応用し、複数のGPUを使ってディープラーニングの学習速度を高速化するソフトウェア技術を開発したと発表した。

 従来、ディープラーニングの高速化手法において、GPUを搭載した複数のコンピューターをネットワークで結合した並列化では、10数台を超えるとコンピューター間のデータ共有時間が増加するため、次第に並列化の効果が得られにくくなることが課題となっていたという。

 富士通研究所では、このデータ共有を効率よく行う並列化技術として、連続的に続く複数の演算で、次の学習処理の開始に必要となるデータが先にそれぞれのコンピューターで共有されるよう転送の優先順序を自動的に制御するデータ共有のスケジューリング技術と、演算結果を全コンピュータで共有する処理において、データの量に応じて最適な演算方法を行うよう自動で振り分けることで全体の演算時間を最小にする、データサイズに応じた演算最適化処理技術の2つの技術を開発した。

データ共有のスケジューリング技術
共有データサイズが小さい場合(上段)と大きい場合(下段)による、処理の違い

 開発した技術を、ディープラーニングフレームワークの「Caffe」に実装し、画像認識用多層ニューラルネットの「AlexNet」を用いて評価を実施。GPUをそれぞれ搭載した64台のコンピューターを使用したAlexNetにおける学習時間を計測したところ、GPUを1台だけ使用した場合に比べ27倍の速度を達成した。技術適用前と比較すると、GPU16台で46%、64台で71%の学習速度の向上を実現できたという。

 富士通研究所では、今回の技術を利用することで、ロボット・自動車などの自動制御や、医療・金融などの分野において病変分類や株価予測に独自のニューラルネットモデルを開発する場合など、ディープラーニングの研究開発時間を短縮でき、より高品質なモデルの開発が可能となると説明。開発した技術を、富士通株式会社のAI技術「Human Centric AI Zinrai」の1つとして2016年度中の実用化を目指すとともに、学習速度のさらなる向上をめざし、技術の改善を行っていくとしている。