東京エレクトロン デバイス(TED)は2019年12月19日、ディープラーニング(深層学習)の学習などを高速に実行するためのAI処理専用のアクセラレータ型コンピュータ「CS-1」(開発元:米Cerebras Systems)を発表した。「これまで数カ月かかっていた学習が数分で終わる」とアピールする。同日受注を開始した。2019年4月以降出荷する。価格は個別見積もりで数億円クラス。販売目標は3年間で100億円。
米Cerebras Systemsが開発したCS-1は、ディープラーニング/マシンラーニングの学習などを高速に実行するために専用に作成した、アクセラレータ型コンピュータである(写真1)。高さ15Uのラックマウント型の筐体を持つAI計算エンジンであり、アプリケーションを動作させるPCサーバーとは、ネットワーク経由で接続する。ネットワークI/Oとして100ギガビットEthernet×12個を備える。
![写真1:ディープラーニングの学習などを高速に実行するために専用に作成したアクセラレータ型コンピュータ「CS-1」の外観。高さ15Uの筐体で、外部のPCサーバーとはネットワーク(100GビットEthernet×12)を介して接続する(出典:東京エレクトロンデバイス)](/mwimgs/2/c/518/img_2cd86fe892d7c3814941c1327772a828140941.jpg)
ディープラーニング/マシンラーニングの演算をCS-1にやらせるために必要なソフトウェアライブラリを用意している。ネットワークを介してCS-1に接続したPCサーバー上で、ディープラーニングの開発フレームワークであるTensorFlowとPyTorchを使って、CS-1で稼働するアプリケーションを開発できる。このほかに、低レベルAPIライブラリも用意した。
![写真1:一辺が21.5センチメートルある巨大なAIチップ「WSE」を持つ、米Cerebras Systemsで製品管理ディレクタを務めるAndy Hock氏](/mwimgs/8/0/250/img_802ac0b6295db7c604413c35b3e450a8646190.jpg)
拡大画像表示
ハードウェアの最大の特徴は、直径300ミリメートルのウエーハの大部分をそのまま使った、一辺が21.5センチメートルもある巨大な計算チップ「WSE(Wafer Scale Engine)」を搭載していることである(写真2)。1枚のシリコンチップに、40万個の演算コアと、18GBのSRAMのオンチップメモリーを実装している。トランジスタの数は1兆2000億個になる。
クラスタ接続ではなく、たった1枚のシリコンで大量の演算コアを実現することから、メモリー帯域やインターコネクト性能に優れる。現在の最大のGPUチップとの比較では、面積が56倍、演算コアが78倍、メモリー帯域が1万倍、インターコネクトが3万3000倍としている。消費電力は最大20kWで、1UのPCサーバー15台と同等としている。
●Next:AI専用コンピュータで得られる効果と導入事例
会員登録(無料)が必要です