NRIセキュアテクノロジーズは2024年6月19日、生成AI向けセキュリティクラウドサービス「AI Blue Team」を提供開始した。生成AIを用いるシステムを対象にセキュリティ監視を行う。セキュリティ診断サービス「AI Red Team」で脆弱性を洗い出したうえでAI Blue Teamを利用することで、セキュリティ対策を包括的・継続的に実施できるとしている。料金は個別見積もり。
NRIセキュアテクノロジーズの「AI Blue Team」は、生成AI/大規模言語モデル(LLM)を用いるシステムを対象に、データの入出力の安全性を監視するセキュリティサービスである。継続的な監視を通じてリスク管理を支援する。
同社が提供中のセキュリティ診断サービス「AI Red Team」で脆弱性を洗い出したうえでAI Blue Teamを利用することで、セキュリティ対策を包括的・継続的に実施できるとしている(図1、関連記事:NRIセキュア、生成AIシステムの脆弱性を疑似攻撃で診断する「AI Red Team」を提供)。
拡大画像表示
監視対象システムと生成AI/LLMの間で行われる入出力情報を、AI Blue Teamの「検知API」に連携させてデータを監視する仕組みである。APIを呼び出すプログラムコードを監視対象システムに数行追加することによって利用を始められる。
有害な入出力を検知すると、ユーザー企業の担当者に通知する。NRIセキュアのアナリストが検知結果から攻撃傾向を分析し、新種の手法にも対応できるようにインテリジェンス(収集・分析情報)を蓄積する。アナリストの監視画面にはユーザーの担当者もアクセス可能である。
AI Red Teamのセキュリティ診断では、システム固有の脆弱性も検出する。その対応のため、汎用的なインテリジェンスとは別に、ユーザー企業専用のインテリジェンスを蓄積する。これにより、汎用的な製品では対処できないシステム固有の脆弱性にも対処するという。
AI Blue Teamの料金は個別見積もりで、対象システム数、ユーザー数、検知API呼び出し回数などによって変動する。