ニュース

NVIDIA、GPUを活用して世界最大の人工ニューラルネットワークを構築

 米NVIDIAは18日(ドイツ時間)、ヒトの脳の学習方法をモデル化できる世界最大の人工ニューラルネットワークを、スタンフォード大学の研究チームと共同で構築したと発表した。それまで最大だったのは2012年にGoogleが構築したニューラルネットワークだったが、今回の規模はその6.5倍におよぶという。

 ニューラルネットワーク(Neural Network:神経回路網)は、脳機能に見られるいくつかの特性を計算機上のシミュレーションによって表現することを目指した数学モデル。もともは生体の脳のモデル化が目的だが、神経科学の知見の改定などにより次第に脳モデルとは乖離(かいり)が著しくなり、生物学や神経科学との区別のため、人工ニューラルネットワークと呼ばれるようになった。

 コンピュータでニューラルネットワークを構築すると、「学習」によって脳の挙動をモデル化し、人間と同じように物体や文字、音声、オーディオなどを認識できるようになる。ただ、大規模なニューラルネットワークの構築には膨大なコンピュータ資源が必要で、例えばGoogleのニューラルネットワークでは、CPUベースのサーバーを約1000台、CPUコアを約1万6000個も使用し、さまざまなYouTube動画から猫を認識することに成功した。このネットワークには、ニューロン間の接続にあたるパラメータが17億もあるという。

 これに対し、スタンフォード大学人工知能ラボのディレクタ、アンドリュー・ン氏とそのチームは、ネットワークで生成されるビッグデータの処理をNVIDIA GPUで高速処理することで、わずか3台のサーバーでGoogleを上回る規模のネットワークを構築。16台のNVIDIA GPUで高速化されたサーバーで構築されたニューラルネットワークはパラメータ数が112億と、Googleのネットワークの6.5倍に達している。

 ニューラルネットワークを大型化してパワフルにすれば、物体の認識といったタスクの精度があがり、人間に近い挙動をコンピュータでモデル化することが可能になる。

 NVIDIAは「GPUアクセラレータは計算能力がCPUより大幅に高いため、今後、大規模ニューラルネットワークのモデリングが普及していくものと思われる。GPUで高速化したサーバーにより、現実世界の問題を機械学習で解決することが可能になった」と述べている。

川島 弘之