Preferred Networks(PFN)は2019年3月18日、スーパーコンピュータ「MN-2」を自社構築し、同年7月に稼働させると発表した。計算資源は、既に稼働している「MN-1」(2017年9月稼働)、「MN-1b」(2018年7月稼働)と合算して約200PFLOPSとなる。2020年春には、PFNが独自開発するディープラーニングプロセッサ「MN-Core」を採用した「MN-3」を稼働させる。
PFNは、ディープラーニングの研究開発に用いるスーパーコンピュータシステムとして、2017年9月にMN-1を稼働させた(関連記事:Preferred Networks、ディープラーニング用に4.7PFLOPSのスーパーコンピュータを構築)。2018年7月には、MN-1の計算資源を拡張すべく、新機種のMN-1bを稼働させた(関連記事:PFN、深層学習用のGPUスパコンを拡張、NVIDIA Tesla V100×512基を追加)。
2019年7月には、新たなスパコンとしてMN-2を稼働させる(表1)。CPUを5760コアと、NVIDIA V100 TensorコアGPUを1024基搭載する。理論上のピーク性能は、ディープラーニング(深層学習)で利用する混合精度浮動小数点演算において約128PFLOPS(ペタフロップス)であり、MN-2だけでMN-1bの2倍以上のピーク性能となる。
拡大画像表示
MN-2は、国立研究開発法人海洋研究開発機構横浜研究所シミュレータ棟内に構築する(写真1)。2020年春に稼働を予定するMN-3と、同一サイト内で連携稼働する。現在稼働中のMN-1およびMN-1bとも、閉域網で接続する。MN-2上では、オープンソースの深層学習フレームワーク「Chainer」を活用し、交通システム、製造業、ヘルスケア、スポーツ、クリエイティブ分野などの研究開発に利用する。
拡大画像表示
GPUノード間のインターコネクトにはEthernetを採用した。Ethernet上で低遅延・高スループットを実現するRoCE(RDMA over Converged Ethernet)v2に合わせて、1ノードあたり100ギガビットEthernetを4本搭載した。同時に、総容量10PBを超えるソフトウェア定義型ストレージを独自に構築し、機械学習時のデータアクセスを最適化している。