予測アルゴリズムに関する倫理的分析レポート

公共安全に係る予測アルゴリズムについての倫理分析レポート。

www.technicalsafetybc.ca

 

上記は、カナダのブリティッシュ・コロンビア州の安全当局(BC Safety Authority)を対象としたもの。行政の安全管理者(例えば送電システムの安全管理担当の職員)が、検査作業の優先順位付けなどを行う際、予測アルゴリズムやAIを意思決定支援システムとして利用すること(例えば、リスクの高そうな送電機器をAIがサジェストしてくれるので、それに基づいて現場に向かって点検を行う)を想定して、どのような倫理リスクがあるか、また、どのように対処すべきかを分析している。

人間の意思決定を支援する予測アルゴリズムは、作業の効率化などによって組織に多大な利益をもたらすことは間違いない。しかし、例えば以下のような倫理的課題があると指摘されている:予測結果がなぜそうなるのかすぐには説明できないなど、透過性が欠けている可能性がある。また、バイアスを含むデータセットを学習対象とすると、予測結果にもバイアスが潜在することが知られており、意図しない差別を招く可能性がある。さらに、従来の(人間だけの)意思決定過程と比べて、責任の所在が曖昧になったり、変わったりする可能性がある。この他にも、プライバシーや個人の自律、雇用への影響などの課題もある。

そこで、(1)明確な目標設定、(2)設計の透明性、(3)機械の自律性に関する決定、(4)モニタリングの実践、(5)コミュニケーションの実践、の5点を推奨事項としている。

 

ところで、文責の Generation R は、昨年に設立されたロボット・AIの倫理に関するコンサルティング企業らしい。

genr.ca

 

当局が予測アルゴリズムやAIを導入する時に、どのように倫理リスクを特定して対処するべきかのケーススタディが紹介されていて、面白いし参考になる(しかし「Comprehensive Ethics Assessment (CEA)」かあ…)。

genr.ca