[新製品・サービス]

AIの学習・推論を高速化するストレージ/データ基盤「DDN Infinia」─DDNジャパン

2025年9月9日(火)日川 佳三、河原 潤(IT Leaders編集部)

米DataDirect Networks日本法人のデータダイレクト・ネットワークス・ジャパン(DDNジャパン)は2025年9月9日、AIシステム向けストレージ「DDN Infinia」を販売開始した。同年11月に出荷開始する。主要言語のSDKで開発したアプリケーションからの直接アクセスが可能で、AIの学習・推論時のデータアクセスを高速化する。DDN Infinia本体はLinuxで動作するストレージソフトウェアで、DDNジャパンは今回の製品をパートナーを通じてハードウェアアプライアンスの形態で販売する。

 データダイレクト・ネットワークス・ジャパン(DDNジャパン)の「DDN Infinia」は、AIシステム向けのストレージである。各アプリケーションから直接アクセス可能で、AIの学習・推論時のデータアクセスを高速化する。

 DDN Infinia本体はLinuxで動作するストレージソフトウェア。DDNジャパンは今回の製品をパートナーを通じてハードウェアアプライアンスの形態で販売する。

図1:ストレージ/データプラットフォーム「DDN Infinia」の構成(出典:データダイレクト・ネットワークス・ジャパン)
拡大画像表示

 図1は、DDN Infiniaの構成である。主要言語(C++、Python、Go、Rust、Java)で開発したアプリケーションから直接、DDN Infiniaに格納したデータにアクセスできるようにSDKを提供する。アプリケーションにデータアクセス機能を組み込むためのライブラリおよびヘッダーファイルを提供する。APIではなく、SDKによる組み込みの実装により、低遅延・高速なデータアクセスを実現する。また、低遅延なデータ伝送のため、RoCE(RDMA over Converged Ethernet)またはInfiniBandを用いる。

写真1:データダイレクト・ネットワークス・ジャパン プリンシパルエンジニアの井原修一氏
拡大画像表示

 DDNジャパン プリンシパルエンジニアの井原修一氏(写真1)は、AI用途のストレージにおいて処理性能が必要になる理由を「大規模モデルを学習する際は、学習が途中で止まっても再開できるよう、定期的にチェックポイントをストレージに書き込む処理がある。推論時もGPUメモリーだけでなく、キャッシュとしてメインメモリーやストレージを使う」と説明した。

 近年のDDNは、AIとHPC(High Performance Computing)領域にフォーカスした製品開発・提供を進めている。以前からAI/HPC分野に向けて、Lustreベースの並列ファイルシステム「DDN EXAScaler」を提供している。「EXAScalerは、大規模なデータを高スループットで扱う用途に適している。今回、DDN Infiniaを追加し、より広範なAIの需要をカバーするようにした」(井原氏、図2)。

図2:DDNが提供する2つのストレージプラットフォーム(出典:データダイレクト・ネットワークス・ジャパン)
拡大画像表示
関連キーワード

DataDirect Networks / 生成AI / HPC / InfiniBand / ITインフラ

関連記事

トピックス

[Sponsored]

AIの学習・推論を高速化するストレージ/データ基盤「DDN Infinia」─DDNジャパン米DataDirect Networks日本法人のデータダイレクト・ネットワークス・ジャパン(DDNジャパン)は2025年9月9日、AIシステム向けストレージ「DDN Infinia」を販売開始した。同年11月に出荷開始する。主要言語のSDKで開発したアプリケーションからの直接アクセスが可能で、AIの学習・推論時のデータアクセスを高速化する。DDN Infinia本体はLinuxで動作するストレージソフトウェアで、DDNジャパンは今回の製品をパートナーを通じてハードウェアアプライアンスの形態で販売する。

PAGE TOP