[新製品・サービス]

第3世代Xeon SPはAIの学習と推論を高速化、bfloat16アクセラレータを搭載

2020年6月23日(火)日川 佳三(IT Leaders編集部)

インテルは2020年6月23日、会見を開き、CPUやメモリー、FPGAなどの新製品群を発表した。例えば、近日中に販売する第3世代Xeonスケーラブル・プロセッサでは、ニューラルネットワークに必要十分な精度で浮動小数点演算が行えるbfloat16形式のアクセラレータを搭載した。

 インテルは会見で、近日中に販売する第3世代Xeonスケーラブル・プロセッサを紹介した。第3世代では、AI処理用のアクセラレータを刷新した。2017年の第1世代ではFP32(32ビット浮動小数)、2019年の第2世代ではINT8(8ビット整数)のアクセラレータを搭載した。今回の第3世代ではbfloat16のアクセラレータを搭載した。

 bfloat16は、ニューラルネットワークに必要十分な精度で浮動小数点演算が行えるように定めた浮動小数の形式である。インテルによると、bfloat16のアクセラレータは、FP32との比較において、学習が1.93倍、推論が1.9倍に高速化した(図1)。

図1:第3世代Xeonスケーラブル・プロセッサは、ニューラルネットワークの学習と推論を高速化するため、bfloat16形式のアクセラレータを搭載した(出典:インテル)図1:第3世代Xeonスケーラブル・プロセッサは、ニューラルネットワークの学習と推論を高速化するため、bfloat16形式のアクセラレータを搭載した(出典:インテル)
拡大画像表示

 まずは第3世代Xeonスケーラブル・プロセッサの4~8ソケット向けにbfloat16のアクセラレータを搭載する。2020年後半に、1~2ソケット向けのCPUにも搭載する。2021年には次世代(第4世代)のCPUを提供する予定である。

 会見では、DIMM型の不揮発性メモリーであるOptane DCパーシステント・メモリーの新モデル「200シリーズ」も紹介した(図2)。200シリーズは、既存モデルと比べてメモリー帯域幅が25%向上した。容量は、メモリーソケット1つあたり最大4.5Tバイトに増えた。

図2:DIMM型の不揮発性メモリーの新モデルであるOptane DCパーシステント・メモリー200シリーズは、帯域幅を25%向上させた(出典:インテル)図2:DIMM型の不揮発性メモリーの新モデルであるOptane DCパーシステント・メモリー200シリーズは、帯域幅を25%向上させた(出典:インテル)
拡大画像表示

 会見ではさらに、FPGA(Field Programmable Gate Array、論理回路を書き換えられる半導体チップ)の新モデル「Stratix 10 NX FPGA」も紹介した(図3)。新モデルでは、AI処理のためのTensorブロックを搭載した。INT8の処理性能が従来モデルと比べて最大15倍になった。

図3:FPGAの新モデルであるStratix 10 NX FPGAは、AI処理のためのTensorブロックを搭載した(出典:インテル)図3:FPGAの新モデルであるStratix 10 NX FPGAは、AI処理のためのTensorブロックを搭載した(出典:インテル)
拡大画像表示
関連キーワード

インテル / bfloat16

関連記事

Special

-PR-

第3世代Xeon SPはAIの学習と推論を高速化、bfloat16アクセラレータを搭載インテルは2020年6月23日、会見を開き、CPUやメモリー、FPGAなどの新製品群を発表した。例えば、近日中に販売する第3世代Xeonスケーラブル・プロセッサでは、ニューラルネットワークに必要十分な精度で浮動小数点演算が行えるbfloat16形式のアクセラレータを搭載した。

PAGE TOP