[市場動向]

日立、“人間中心のAI”を開発・社会実装するための「AI倫理原則」を策定

3つの行動規準と7つの実践項目を明文化

2021年2月24日(水)IT Leaders編集部

日立製作所は2021年2月22日、人間中心のAIを開発・社会実装するための原則「AI倫理原則」を策定したと発表した。AI倫理原則では、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、すべてのフェーズに共通する7つの「実践項目」を定めている。これにより、安全でレジリエントな社会の実現とQoLの向上に貢献するとしている。

 社会インフラに直結するOT領域では、AIの異常動作や外部からの悪意を持った行為によって、社会全体や人命に関わる重大な影響を及ぼすリスクがある。一方、IT領域においても、AIの開発を誤れば、差別や偏見、格差を助長するおそれがある。

 日立製作所は上記の背景を挙げて、AIの開発や社会実装に内在する倫理的リスクを抑制するため、人間中心のAIを開発・社会実装するための原則「AI倫理原則」を策定したことを発表した。

 AI倫理原則では、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、すべてのフェーズに共通する7つの「実践項目」を定めている。この原則に基づき、AIを利活用する。

 表1は、日立が定めたAI倫理原則の3つの行動規準である。

表1:AI倫理原則の3つの行動規準
1. 持続可能社会実現のために、AIの開発、利活用を計画します
「AIの潜在的な倫理的リスクを抑制し、新たな価値の創出を図るには、計画の時点において、サービス、ソリューションやプロダクトにAIを利活用しようとする目的が適切であることが重要です。日立は、社会の多様な課題を解決し、快適で強靭な持続可能社会の実現や、世界中の人々のQoL向上のためにAIの開発と利活用を計画します」
2. 人間中心の視点で、AIを社会実装します
「AIの判断結果が、個人を尊重し、社会の利益に資するよう、責任をもってAIを社会実装し、AIと人間との共生を可能とすることが重要です。日立は自由、公平、公正の理念にのっとり、人間中心の視点でAIの社会実装を行うとともに、AIが想定通りに機能するよう検証に努めます」
3. 提供価値が長期間にわたり持続するよう、AIを維持管理します
「AIの社会実装後にも、AIが長期かつ安定的に価値を提供し続けることが重要です。日立は、AIの提供価値が社会や環境の変化に応じ継続的に受け入れられるよう維持管理に努めます」

 AI倫理原則の7つの実践項目は、表2のとおりである。

表2:AI倫理原則の7つの実践項目
1. 安全重視
「AIおよびAIを活用したシステムやソリューションが想定通りの動作をするよう品質を検証し、利用者やそれに関係する者の生命や健康をはじめとする人権、財産、名誉、信頼、信用を守ることに努めます。また、同時に、地球環境の破壊あるいは悪化を防止し、人々に安全な暮らしを提供するAIの実現、運用に努めます」
2. プライバシー保護
「AIの学習、評価、運用に利用する入力データおよびAIが出力するデータに関して、個人情報を適切に扱い、プライバシーを含む権利を保護するようAIの実現、運用に努めます」
3. 公平性実現
「AIの判断結果が、多様なステークホルダーの利益に資するとともに、人種、性別、国籍などによる差別や偏見を発生させたり助長させたりすることがないようAIの実現、運用に努めます」
4. 適正開発・利活用
「AIが設計された用途や動作条件から逸脱した使い方をされないよう、AIの具体的な利活用シーン(ユースケース)におけるリスクポテンシャルを踏まえた開発を行い、AIの適正な利活用に努めます。また、利用者や運用者等に対し利用方針、利用条件等を示すことでAIの適正な運用に努めます。さらに、AIが利用される動作環境の変化、AIやその判断結果に対する人々の意識や社会状況の変化などを随時確認し、AIの適切な維持管理に努めます」
5. 透明性・説明責任重視
「AIの判断結果の根拠などを検証し説明できるようAIの透明性確保に努めるとともに、AIやその判断結果に関して用途や状況に応じ、説明責任を果たすよう努めます」
6. セキュリティ重視
「情報漏洩、改竄、システムの破壊、サービスの妨害などを防止するよう、システムや運用レベルでの対策も含め、セキュリティを重視したAIの実現、運用に努めます」
7. 法令遵守
「利用される国や地域の法令を遵守した、AIの実現、運用を行います」

●Next:AI倫理原則に沿った活動を支える組織体制

この記事の続きをお読みいただくには、
会員登録(無料)が必要です
  • 1
  • 2
関連キーワード

日立製作所 / Lumada

関連記事

Special

-PR-

日立、“人間中心のAI”を開発・社会実装するための「AI倫理原則」を策定日立製作所は2021年2月22日、人間中心のAIを開発・社会実装するための原則「AI倫理原則」を策定したと発表した。AI倫理原則では、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、すべてのフェーズに共通する7つの「実践項目」を定めている。これにより、安全でレジリエントな社会の実現とQoLの向上に貢献するとしている。

PAGE TOP