日立製作所は2021年2月22日、人間中心のAIを開発・社会実装するための原則「AI倫理原則」を策定したと発表した。AI倫理原則では、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、すべてのフェーズに共通する7つの「実践項目」を定めている。これにより、安全でレジリエントな社会の実現とQoLの向上に貢献するとしている。
- > 前へ
- 1
- 2
日立製作所は2021年2月22日、人間中心のAIを開発・社会実装するための原則「AI倫理原則」を策定したと発表した。AI倫理原則では、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、すべてのフェーズに共通する7つの「実践項目」を定めている。これにより、安全でレジリエントな社会の実現とQoLの向上に貢献するとしている。
日立、“人間中心のAI”を開発・社会実装するための「AI倫理原則」を策定 [ 2/2 ] 日立製作所は2021年2月22日、人間中心のAIを開発・社会実装するための原則「AI倫理原則」を策定したと発表した。AI倫理原則では、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、すべてのフェーズに共通する7つの「実践項目」を定めている。これにより、安全でレジリエントな社会の実現とQoLの向上に貢献するとしている。