[「人間中心のAI」で企業変革を加速する─生成AIの進化・活用のこれから]
信頼されるAIの実現へ─企業が取り組むべきAIガバナンスの4層アプローチと「人間中心」の視点:第5回
2025年7月4日(金)森 正弥(博報堂DYホールディングス 執行役員/CAIO, Human-Centered AI Institute 代表)
AI技術は日々進化を遂げ、社会実装が現実の段階に入っているが、多くの企業ではまだ部分的な活用にとどまり、AIに対する脅威や不安のマインドが依然として存在する。あるべき姿は「人間中心のAI活用」であり、その推進にあたって何をなすべきか。本連載では、具体的なアプローチを交えながら、企業がAIをどのように向き合い、活用し、未来の成長に役立てていくかを考察していく。第5回では、AIガバナンスのあり方と、「人間中心のAI」視点によるアップデートの可能性について解説する。

今求められるAIガバナンス─4つの階層で構築する信頼性
本連載ではこれまで、生成AIを企業・組織の業務においてどのように活用していくかについて述べてきた。今回は、AIを扱ううえで避けることのできない課題である「AIガバナンス」について、組織におけるあり方と、「人間中心のAI」の視座からのアップデートの可能性について論じてみたい。
とどまることのない、かつ急速なAIの進化。その一方で、企業や社会の中での活用においては課題、懸念が多々存在する。処理過程のブラックボックス化の問題や、データバイアスに伴うAIの公平性を欠いた判断や出力、技術の特性上、偽情報をもっともらしく返してくるハルシネーションなどだ。
AIの利用にまつわるリスクは、単なる技術的な対策だけでは回避できなくなりつつある。そのため、信頼性を確立するAIガバナンスには、多層的なアプローチが必要となる。
図1は、企業が取り組むべきアプローチを、「AI原則の確保」「AIに関連する各種プロセスの確立」「組み込まれたAIのリスクコントロール」「生活者の参画」という4つのレイヤーで下から順に示したものだ。以下でそれぞれを説明しよう。

拡大画像表示
レイヤー1:AI原則の確保
倫理的基盤と価値観の統合
まず求められるのが、AI原則の確保だ。これは、AIが社会で実装されていくことを想定した際に、求められる設計思想や機能的要件を示すものである。
AIに関して以前より重要視されてきたのは、透明性や説明可能性を確保し、公正性や公平性を欠いた活用を防止すること。こうした観点は、倫理的、法的、社会的課題(Ethical, Legal and Social Issues)への配慮として、多くの組織・団体によって、開発指針や原則として整理の試みがなされてきた。
代表的な例としては、AIの安全性と人類への影響を研究する非営利団体のFuture of Life Instituteによる「アシロマAI原則」(注1)、マイクロソフト、IBM、グーグルといった主要なテクノロジー企業やUNESCO(国際連合教育科学文化機関)などの公的機関がそれぞれ定めているAI原則あたりが広く知られている。
そして、近年の生成AIの急速な発展がこの領域の議論に大きな影響を及ぼしている。公平性・透明性・説明可能性、頑健性、セキュリティ、プライバシー保護といった、これまで重視されてきた観点に加え、生成される情報の信憑性や、人間の価値観との整合性などが重要なポイントとして浮上してきている。
注1:アシロマAI原則(Asilomar AI Principles)は、AI の研究、倫理・価値観、将来的な問題の3分野に関する23の原則で構成。2017年1月に米カリフォルニア州アシロマで開催した「有益なAIに関するアシロマ会議(Asilomar Conference on Beneficial AI)」で策定された。
●Next:AIガバナンスがビジネス価値をもたらす
会員登録(無料)が必要です
- 1
- 2
- 次へ >
- 代替ではなく共創─AIが拡張するマーケティング/クリエイティブの能力と創造性:第4回(2025/05/01)
- RAGそしてAIエージェント─生成AIの能力を拡張するアプローチ:第3回(2025/01/23)
- 組織生産性向上を目指して─生成AIの業務活用ユースケースと留意点:第2回(2024/12/10)
- 生成AIが導く企業変革、人間とAIが協創する未来:第1回(2024/10/25)
博報堂DYホールディングス / ITガバナンス / 生成AI / AI倫理