富士通がAI関連のサービスや製品に本腰を入れ始めた。ディープラーニング(深層学習)専用のハードウェアやプロセッサ、クラウド経由で利用できる高機能のAPIやサービスを投入したのだ。同社の谷口典彦 取締役執行役員副社長は「AIは今後のビジネスにおいて必然の存在。サービスの開発や提供をさらに加速していく」と語る。
富士通は2017年5月16日、AIビジネス戦略に関する発表会を開催した。(1)ディープラーニング(深層学習)専用サーバー、「FUJITSU AIソリューションZinraiディープラーニングシステム」、(2)クラウドサービス「FUJITSU Cloud Service K5 Zinraiプラットフォームサービス」の一環であるAIを利用したAPI群、(3)そのAPIを利用して構成したサービス2種、などが柱。谷口典彦 副社長は席上、「富士通はAIに関して30年を超える知見、技術の集積がある。AI技術をコアにサービス指向カンパニーを目指す」と表明した。(4)量子コンピュータ技術をエミュレートすることで組み合わせ最適化問題を高速に解くアーキテクチャも開発する。
ディープラーニング専用のシステムを出荷開始
このうちFUJITSU AIソリューションZinraiディープラーニングシステム(以下ZDLS)は、GPU「NVIDIA TeslaP100」を最大8基搭載できるDL専用マシン(写真1)。TeslaP100は153億個トランジスタを集積しており、単体で倍精度5.3TFLOPS、単精度10.6TFLOPSの浮動小数点演算性能を持つ。管理ツールのOSにはCentOS、DL部にはUbuntuというLinux系OSを搭載し、使い勝手に配慮した。DLのフレームワークとしては、プリファードインフラストラクチャー&プリファードネットワークの「Chainer」、米Googleの「TensorFlow」、米Microsoftの「CNTK(Computational Network Toolkit)」、米カリフォルニア大バークレー校BVLCの「Caffe」など主要なものを搭載し、選択して利用できるようにしている。
拡大画像表示
オンプレミス設置のZDLSの価格は3570万円から。米NVIDIA自身が昨年に発売したP100×8基搭載の「DGX-1」が12万9000ドル(1400万円強)なのに比べると割高に思えるが、ストレージや富士通のサポートがあることを考えるとそうとも言えない。ZDLSはクラウドサービスとしても提供する。さらに今年度には特殊な液体に演算部を浸して冷却性能を高める液浸オプションを追加する考えだ(写真2)。オプションを使わない場合に比べて40%の省電力化を図れるという。計画では2020年度までに累計1900システムを販売する。
拡大画像表示
一方で富士通はGPUベースのTeslaP100に代わる、DL専用プロセサ「DLU(ディープラーニングユニット)」を開発中。「画像処理機能を基本にするGPUには、DLには不要な回路やインターコネクトが備わっている。DLUはそうした部分をそぎ落とす一方で、スーパーコンピュータの開発で蓄積した並列技術、インターコネクト技術を投入し、処理性能と電力性能を高める」(吉沢尚子同社執行役員サービスプラットフォーム部門AI基盤事業本部長)。2018年に出荷を開始し、ZDLSの次期版に搭載する計画だ。
会員登録(無料)が必要です
- 1
- 2
- 3
- 次へ >
AI / ディープラーニング / 富士通 / マシンラーニング / Zinrai / NVIDIA / 野村証券 / Preferred Networks / Chainer / TensorFlow / Google