[市場動向]
ソフトバンク、AI用途のGPUサーバークラスタを4.7EFLOPSに増強
2024年11月1日(金)日川 佳三(IT Leaders編集部)
ソフトバンクは2024年10月31日、同社が拡張を進めているAI計算基盤において、約4000基の「NVIDIA Hopper GPU」の整備を完了したと発表した。導入済みの「NVIDIA Ampere GPU」(2000基)を含めた計算処理能力の合計が4.7EFLOPS(エクサフロップス)に達した。今後は合計1万基のGPUで25.7EFLOPSを目指す。
ソフトバンクは、生成AIをはじめとするAIのさらなる広範な普及を見据えて、AI計算基盤の拡張を進めている。2023年9月には、NVIDIA Ampereアーキテクチャ世代のGPU(V100/A100など)を約2000基用いた0.7EFLOPS(エクサフロップス)のAI計算基盤を稼働開始している。
今回、現行世代であるNVIDIA HopperアーキテクチャのGPU(H100/H200など)約4000基を新たに整備した。導入済みのGPUと合わせ、計算処理能力の合計は4.7EFLOPSに達した(写真1)。
ソフトバンクは2024年度から2025年度にかけて、次世代のNVIDIA BlackwellアーキテクチャのGPU「NVIDIA B200」を搭載したGPUサーバー「NVIDIA DGX B200」で構成する「NVIDIA DGX SuperPOD」を活用し、GPUを合計約1万基に増強する予定。その後もGPUの増強を行い、合計で25.7EFLOPSを目指すとしている。
ユーザーとして、日本語に特化した大規模言語モデル(LLM)を開発している子会社のSB IntuitionsがAI計算基盤を活用する。同社は、2024年度中にマルチモーダルで使える約3900億パラメータのLLMの構築を目指している。AI計算基盤の増強を受け、開発をさらに加速するとしている。
ソフトバンクは、AI計算基盤の構築において、経済安全保障推進法に基づく経済産業省の「特定重要物資クラウドプログラムの供給確保計画」の認定を受けている。生成AIの開発者が利用できる計算資源を整備することで、国内における開発基盤の構築とサービス提供体制の強靱化に貢献することを目指す。
今後、自社グループで利用するほか、国内の企業や研究機関に対してもサービスとして提供する予定である。