[新製品・サービス]

HPE、オンプレミスに設置可能なAI処理基盤「HPE Private Cloud AI」を発表

PCサーバー「HPE ProLiant」にAI用途モデルを追加

2024年8月1日(木)日川 佳三(IT Leaders編集部)

ヒューレット・パッカード エンタープライズ(HPE/日本ヒューレット・パッカード)は2024年7月31日、ラック型AIシステム「HPE Private Cloud AI」を同年末までの予定で提供すると発表した。オンプレミス環境に設置可能なAI処理基盤として、サーバー/ストレージ、ミドルウェアを設定済みの状態で提供する。オンプレミスのITインフラをサービス型で利用可能な「HPE GreenLake」を通じて提供する。

 ヒューレット・パッカード エンタープライズ(HPE)の「HPE Private Cloud AI」は、オンプレミスのデータセンター/サーバールームに設置するラック型AIシステムである。大規模言語モデル(LLM)を用いるAIアプリケーションに必要なサーバー/ストレージやミドルウェアを、インストール/設定済みで提供する(図1)。

 設置後、ウィザードからIPアドレスなどを設定し、数クリックで使い始められるようになるとしている。オンプレミスのITインフラをサービス型の課金形態で利用可能な「HPE GreenLake」を通じて提供する。

図1:ラック型AI処理基盤「HPE Private Cloud AI」のソフトウェア構成(出典:日本ヒューレット・パッカード)
拡大画像表示

 スペックに応じて4つの構成をラインアップする。搭載するGPUは、最小構成の「Small」がNVIDIA L40S(4または8基)、最大構成の「Extra Large」がNVIDIA GH200 NVL2(12または24基)である。冷却方式はコールドプレートによる液冷方式を採用する(図2)。

図2:ラック型AI処理基盤「HPE Private Cloud AI」のラインアップ(出典:日本ヒューレット・パッカード)
拡大画像表示

 1ラック構成のSmallは通常の推論用で、LLMを用いたAIアプリケーションを社内で運用する用途に向く。Medium(1ラック構成)は、RAG(Retrieval-Augmented Generation:検索拡張生成)構成の推論AIシステムの運用に必要なスペックを備えている。2ラック構成のLargeとExtra Largeは、RAGに加えてLLMに追加学習(ファインチーニング)を施すようなハイエンド用途に向けて提供する。

 HPE Private Cloud AIで動作するソフトウェアは、インフラとして、Kubernetesによるコンテナ運用基盤とワークロードのプロビジョニング/管理などを担う。その上で動作するAIシステム構築のためのソフトウェアとして、データレイク/ストレージやNVIDIAのAIソフトウェア群を提供する。

 上記のラック型システムに加えて、ラックマウント型PCサーバー「HPE ProLiant」にAI用途の2つの新モデルを追加している。2024年夏に提供開始の「HPE ProLiant DL384 Gen12」は2Uサイズで、GPUにNVIDIA GH200を搭載する。同年秋に提供開始する「HPE ProLiant DL380a Gen12」は4Uサイズで、GPUにNVIDIA H200を8基搭載する(図3)。

図3:ラックマウント型PCサーバー「HPE ProLiant」に追加したGPUサーバー新モデルの概要(出典:日本ヒューレット・パッカード)
拡大画像表示
関連キーワード

HPE / GreenLake / ITインフラ / 生成AI / GPU / NVIDIA / RAG / プライベート

関連記事

トピックス

[Sponsored]

HPE、オンプレミスに設置可能なAI処理基盤「HPE Private Cloud AI」を発表ヒューレット・パッカード エンタープライズ(HPE/日本ヒューレット・パッカード)は2024年7月31日、ラック型AIシステム「HPE Private Cloud AI」を同年末までの予定で提供すると発表した。オンプレミス環境に設置可能なAI処理基盤として、サーバー/ストレージ、ミドルウェアを設定済みの状態で提供する。オンプレミスのITインフラをサービス型で利用可能な「HPE GreenLake」を通じて提供する。

PAGE TOP