東京エレクトロン デバイス(TED)は2019年12月19日、ディープラーニング(深層学習)の学習などを高速に実行するためのAI処理専用のアクセラレータ型コンピュータ「CS-1」(開発元:米Cerebras Systems)を発表した。「これまで数カ月かかっていた学習が数分で終わる」とアピールする。同日受注を開始した。2019年4月以降出荷する。価格は個別見積もりで数億円クラス。販売目標は3年間で100億円。
米Cerebras Systemsが開発したCS-1は、ディープラーニング/マシンラーニングの学習などを高速に実行するために専用に作成した、アクセラレータ型コンピュータである(写真1)。高さ15Uのラックマウント型の筐体を持つAI計算エンジンであり、アプリケーションを動作させるPCサーバーとは、ネットワーク経由で接続する。ネットワークI/Oとして100ギガビットEthernet×12個を備える。

ディープラーニング/マシンラーニングの演算をCS-1にやらせるために必要なソフトウェアライブラリを用意している。ネットワークを介してCS-1に接続したPCサーバー上で、ディープラーニングの開発フレームワークであるTensorFlowとPyTorchを使って、CS-1で稼働するアプリケーションを開発できる。このほかに、低レベルAPIライブラリも用意した。

拡大画像表示
ハードウェアの最大の特徴は、直径300ミリメートルのウエーハの大部分をそのまま使った、一辺が21.5センチメートルもある巨大な計算チップ「WSE(Wafer Scale Engine)」を搭載していることである(写真2)。1枚のシリコンチップに、40万個の演算コアと、18GBのSRAMのオンチップメモリーを実装している。トランジスタの数は1兆2000億個になる。
クラスタ接続ではなく、たった1枚のシリコンで大量の演算コアを実現することから、メモリー帯域やインターコネクト性能に優れる。現在の最大のGPUチップとの比較では、面積が56倍、演算コアが78倍、メモリー帯域が1万倍、インターコネクトが3万3000倍としている。消費電力は最大20kWで、1UのPCサーバー15台と同等としている。
●Next:AI専用コンピュータで得られる効果と導入事例
会員登録(無料)が必要です