データマネジメント データマネジメント記事一覧へ

[イベントレポート]

“信頼できるAI”は“信頼できるデータ”から─テラデータが示す「生成AI時代のデータ分析基盤」の姿

Teradata Possible 2024

2024年10月21日(月)愛甲 峻(IT Leaders編集部)

米テラデータ(Teradata)は2024年10月7日から10日(現地時間)にかけ、米カリフォルニア州ロサンゼルスで年次コンファレンス「Possible 2024」を開催した。主力のデータ分析基盤「Teradata Vantage」は、ハイブリッドを含む各環境への対応や外部サービス/ツール/AIモデルとの柔軟な連携により、顧客の多様なニーズに対応する包括的なプラットフォームへと機能を拡充している。基調講演では、同社幹部がAI時代の高度なデータ分析ニーズに応える「プラットフォームカンパニー」としての戦略や方向性を提示。また、AIプロジェクトを成功に導くためのポイントを、Vantageの機能を紹介しながら解説した。

 2024年10月7日~10日、米カリフォルニア州ロサンゼルスで開催された、米テラデータ(Teradata)の年次コンファレンス「Possible 2024」。同社の戦略や新たな製品・サービスが示されるキーノートや、多数のユーザーが自社の取り組みを共有する事例セッションに加え、ハンズオン形式の製品ワークショップやパートナー向けのセレモニー、ネットワーキングなどが催された(写真1)。

 今回はグローバルで140社、533名のユーザー/パートナーが来場し、日本からも17名が参加。なお、Possibleは同社の新しいグローバルイベントの名称(以前の名称はUniverse)で、同年9月16日~18日に英ロンドンでも開催された。

写真1:ロサンゼルスで行われた「Possible 2024」ネットワーキング会場の模様

 1979年設立のテラデータは、大規模なデータ処理にすぐれる超並列処理技術を生かし、データウェアハウス(DWH)を主戦場にビジネスを展開。その後、アナリティクス領域へのフォーカスを強め、主軸の「Teradata Vantage」を中心に、データ分析やAI/ML(マシンラーニング)の支援に向けた機能強化やサービス拡充を推進してきた。

 近年はクラウドファースト戦略を打ち出し、パブリッククラウドベンダーとの連携強化を進めている。各社のサービスと連携するクラウドネイティブなデータ分析基盤「VantageCloud」や、オブジェクトストレージに格納されたデータの分析やAI/ML開発に適したサーバーレスアーキテクチャの分析サービス「AI Unlimited」などを投入。オンプレミス/クラウド/ハイブリッド環境のいずれにも対応可能なポートフォリオをうたっている(関連記事日本テラデータ、サーバーレス型データ分析「Teradata AI Unlimited」を発表)。

オープンで接続されたプラットフォームに注力

 キーノートの冒頭、テラデータ CEO(最高経営責任者)のスティーブ・マクミラン(Steve McMillan)氏(写真2)は「我々は4年前とは全く違う企業に変わった」と述べた。同氏は米IBMや米オラクルを経て、テラデータがクラウドへの傾注を始めて間もない2020年に取締役会に加わったリーダーだ。

 2024年第2四半期におけるパブリッククラウド事業の年間経常収益(ARR)は、前年比32%増の5億4200万ドル。2020年度末決算時点の1億600万ドルから大きく増加している。マクミラン氏はクラウド事業の成長に触れ、この数年の戦略的な投資と、その成果への自負を示した。

写真2:米テラデータ 最高経営責任者のスティーブ・マクミラン氏

 「今の我々は自身をプラットフォームカンパニーだと考えている」とマクミラン氏。 プラットフォームが備えているべき要素として、オープン性、接続性、ハイブリッド対応、スケーラビリティの4点を追求していると語った。

 これらの要素は、今日の高度かつ多様なデータ分析ニーズを満たすためには必須の要素と言える。システム環境が複雑化し、データは組織内のさまざまなシステムや環境に散在する。データを扱うためのツールやサービスもさまざまで、最適な選択肢は組織によって異なる。ミッションクリティカルなワークロードや高負荷なAI処理を支えるパフォーマンスやスケーラビリティも重要だ。

 マクミラン氏はVantageが備えるオープン性の一例として、ユーザーが使い慣れたオープンソースの分析ツールや、他の環境で開発した分析モデルを持ち込んで利用できる点に言及。また、接続性については、異なる環境下のデータソースにアクセスしてクエリを実行し、結果を統合できる「クエリファブリック」機能や、Amazon S3などの各種クラウドストレージを連携できる点を挙げた。

 「重要なのは、ユーザーが自身の環境にとって最善のツール、機能、モデルを使えること。オンプレミス、クラウド、ハイブリッドを問わず、テラデータはユーザーが求める環境でその要件を満たすことに努めている」(同氏)

図1:テラデータのプラットフォームとしての強み
拡大画像表示

信頼性の高いデータが求められている

 同日には、Vantageにおける生成AI活用の支援に向けた2つのアナウンスがあった。これらにも、オープン性や接続性を重視する方向性が表れている。

 その1つが、VantageCloudの分析エンジン「ClearScape Analytics」の新機能で、ドメインに特化した小・中規模のオープンソースLLM(Large Language Model:大規模言語モデル)の利用をサポートする「bring-your-own LLM(BYO-LLM)」だ。ユーザーはHugging FaceなどのAIモデル/ライブラリプラットフォームからユースケースに最適なモデルを選択できる。また、CPUクラスターと同社の超並列処理技術により、推論やトレーニングをGPUよりも効率よく実行できるケースもあるという。

 「組織は生成AIにより専門的な結果を求め、コストを削減したいと考えるようになっている。それにつれ、小・中規模の特化型のLLMはますます重要になるだろう」(マクミラン氏)

 もう1つのアナウンスは、AIやディープラーニングのキープレーヤーであるNVIDIA(エヌビディア)とのパートナーシップ締結だ。協業の下、生成AIモデルの開発プラットフォーム「NVIDIA NeMo」およびRAG(検索拡張生成)などの生成AIアプリケーション構築向けツールセット「NVIDIA NIMマイクロサービス」のVantageへの統合を実現する。Vantage上でLLMの開発・運用を行う際、AIワークロードの実行をNVIDIAのGPUで高速化できるという。

 なお、マクミラン氏は、生成AIをはじめとする今日のAIが抱える課題への注力点として「信頼性」「倫理」「持続可能性」を挙げた。それぞれ、予測や判断が信頼でき説明可能であること、バイアスのない結果を生成すること、効率的に運用できることを指す。なかでも信頼性については、キーノートの中で再三「信頼できるAI(Trusted AI)」のフレーズが強調され、特に重視していることがうかがえる。

 信頼できるAIの必要条件は、信頼できるデータにほかならず、組織のデータ活用を根底で支えるプラットフォームは極めて重要となる。「さまざまな環境で動作し、信頼できるデータを提供するプラットフォームが求められている」(マクミラン氏)

●Next:AIプロジェクトを成功に導くためのポイントとは

この記事の続きをお読みいただくには、
会員登録(無料)が必要です
  • 1
  • 2
関連キーワード

Teradata / データ活用基盤 / VantageCloud / DWH / アナリティクス / クラウドファースト / 生成AI / マシンラーニング / ModelOps

関連記事

トピックス

[Sponsored]

“信頼できるAI”は“信頼できるデータ”から─テラデータが示す「生成AI時代のデータ分析基盤」の姿米テラデータ(Teradata)は2024年10月7日から10日(現地時間)にかけ、米カリフォルニア州ロサンゼルスで年次コンファレンス「Possible 2024」を開催した。主力のデータ分析基盤「Teradata Vantage」は、ハイブリッドを含む各環境への対応や外部サービス/ツール/AIモデルとの柔軟な連携により、顧客の多様なニーズに対応する包括的なプラットフォームへと機能を拡充している。基調講演では、同社幹部がAI時代の高度なデータ分析ニーズに応える「プラットフォームカンパニー」としての戦略や方向性を提示。また、AIプロジェクトを成功に導くためのポイントを、Vantageの機能を紹介しながら解説した。

PAGE TOP