EYストラテジー・アンド・コンサルティング(EYSC)は2023年6月22日、AIの利用や開発・運用を律するガバナンスの構築を支援するサービスを開始すると発表した。AIを使う上で発生する各種のリスク(信頼性・正確性、プライバシー、知的財産権など)を統制するための体制やルール、プロセスを整備する。
EYSCは、AIの利用や開発・運用を律するガバナンスの構築を支援するサービスを開始する。AIを使う上で発生する各種のリスク(信頼性・正確性、プライバシー、知的財産権など)を統制するための体制やルール、プロセスを整備する。
現在、ChatGPTなど生成AIに対する関心の高まりにあわせ、企業においてもAIの利用や、AIと連携したサービスの開発・利用が進んでいる。一方、AIには各種のリスクが存在する(図1)。AIのリスクを統制するAIガバナンスの構築が必要である。
拡大画像表示
EYSCは、2つのAIガバナンスが必要という。1つは、利用者が誤った方法でAIを利用することにより発生するリスクを防ぐ「AI利用のためのガバナンス」。もう1つは、企業がAIモデルを含むシステムを開発・運用する際に、そのライフサイクルにおいて必要な対応を行う「AI開発・運用のためのガバナンス」である。
これら2つのガバナンスを構築するサービスを、それぞれ提供する。
(1)「AI利用のためのガバナンス構築支援サービス」は、法規制や各種ガイドラインをベースに、ユーザーの社内規定類と整合を取りながら、エンドユーザーがAIを利用する際の管理体制やルールなどの構築を支援する(図2)。
拡大画像表示
(2)「AI開発・運用のガバナンス構築支援サービス」は、システム開発のライフサイクルに沿って、AIを含むシステム/サービスを開発・運用する際のガバナンスの現状を評価し、改善点を明らかにしたうえで、管理体制やルールなどの強化を支援する(図3)。
拡大画像表示
なお、EYSCはグローバルにおいて、AIガバナンスのフレームワーク「Trusted AI」を定め、ガバナンスの構築を支援している(図4)。同フレームワークは、「AI原則」、「開発ライフサイクル」、「リスク分類」の3層でリスクを整理し、個々のリスクに対するコントロールを定義している。
拡大画像表示