米DataDirect Networks日本法人のデータダイレクト・ネットワークス・ジャパン(DDNジャパン)は2025年9月9日、AIシステム向けストレージ「DDN Infinia」を販売開始した。同年11月に出荷開始する。主要言語のSDKで開発したアプリケーションからの直接アクセスが可能で、AIの学習・推論時のデータアクセスを高速化する。DDN Infinia本体はLinuxで動作するストレージソフトウェアで、DDNジャパンは今回の製品をパートナーを通じてハードウェアアプライアンスの形態で販売する。
データダイレクト・ネットワークス・ジャパン(DDNジャパン)の「DDN Infinia」は、AIシステム向けのストレージである。各アプリケーションから直接アクセス可能で、AIの学習・推論時のデータアクセスを高速化する。
DDN Infinia本体はLinuxで動作するストレージソフトウェア。DDNジャパンは今回の製品をパートナーを通じてハードウェアアプライアンスの形態で販売する。

拡大画像表示
図1は、DDN Infiniaの構成である。主要言語(C++、Python、Go、Rust、Java)で開発したアプリケーションから直接、DDN Infiniaに格納したデータにアクセスできるようにSDKを提供する。アプリケーションにデータアクセス機能を組み込むためのライブラリおよびヘッダーファイルを提供する。APIではなく、SDKによる組み込みの実装により、低遅延・高速なデータアクセスを実現する。また、低遅延なデータ伝送のため、RoCE(RDMA over Converged Ethernet)またはInfiniBandを用いる。

拡大画像表示
DDNジャパン プリンシパルエンジニアの井原修一氏(写真1)は、AI用途のストレージにおいて処理性能が必要になる理由を「大規模モデルを学習する際は、学習が途中で止まっても再開できるよう、定期的にチェックポイントをストレージに書き込む処理がある。推論時もGPUメモリーだけでなく、キャッシュとしてメインメモリーやストレージを使う」と説明した。
近年のDDNは、AIとHPC(High Performance Computing)領域にフォーカスした製品開発・提供を進めている。以前からAI/HPC分野に向けて、Lustreベースの並列ファイルシステム「DDN EXAScaler」を提供している。「EXAScalerは、大規模なデータを高スループットで扱う用途に適している。今回、DDN Infiniaを追加し、より広範なAIの需要をカバーするようにした」(井原氏、図2)。

拡大画像表示