東京法哲研3月例会で報告しました
東京法哲学研究会2018年3月例会での報告が、おかげさまで何とか終わりました。ありがとうございました!
私の報告資料「ロボット・AIと法的人格」は、以下でご覧いただけます。
「年度末でひと少ないですから」と騙され、うかうかと承諾してしまいましたが、事前に洩れ聞こえる参加予定者・傍聴希望者の重量感に打ち震える結果となりました。
にもかかわらず、幹事の吉良貴之先生(宇都宮共和大学)が「特に変わったことのない普通の研究会」と言い張り、さらに、当日未明にレジュメを共有したところ、午前中に幹事から事前コメント(A4で2枚)が届くという…「法哲学者の普通とは…」と思いました。
なお、報告後、法的人格と行為主体性の論理や概念の関係をもう少し整理した上で、刑事法領域で責任論を中心に展開されている理由を見直した方が良いのではとのご指摘をいただいており、今後の課題としたいなあと思っています。
でも、私がやりたいのは統治機構方面なので、できるかなあという思いもあります。
いずれにせよ、もっと深掘りしていきたいテーマではあります。
■5/2 追記
以下が掲載されております。宍戸常寿・大屋雄裕・小塚荘一郎・佐藤一郎「テクノロジーと法の対話(AIと社会と法:パラダイムシフトは起きるか? 第1回)」論究ジュリスト 25号(2018年春)、有斐閣、2018/4、pp. 94-112。東京法哲研3月の工藤報告で似たような話が出て焦っていたのはこの座談会です。
— Takehiro OHYA (@takehiroohya) 2018年4月25日
(おそらくこちらご覧になった某先生より)ご要望があったので、東京法哲研3月例会での報告資料「ロボット・AIと法的人格」を公開いたしました。「似たような話」は、論ジュリ25号102頁以下のサールの議論に触れた部分でしたでしょうか…(緊張しすぎて記憶もメモも曖昧)https://t.co/8Q0aZyfDp4 https://t.co/0sSj3nx22F
— Fumi (@inflorescencia) 2018年5月2日
というわけで、論究ジュリスト(2018年春号)は、上記の新連載「AIと社会と法──パラダイムシフトは起きるか?」が邪悪で面白いです。特集の「メディアと憲法」や「日本国憲法のアイデンティティ」も最高なので、買いですよ!!
ちなみに、新連載の本筋以外の見所は、大屋先生がサールに代わって謝りたいと言ってる部分と、有斐閣にメールで原稿督促される宍戸先生でしょうか。
あと、東京法哲研4月例会の大屋先生のご報告 「プロファイリング・理由・人格:ハイパー・パノプティコンとデジタル・レーニズム」、早く原稿になるといいなあ。
シンポジウム「AI社会における『個人』とパーソナルデータ」に登壇しました
2018年3月18日(日)に開催されたパーソナルデータ+α研究会シンポジウム「「AI社会における『個人』とパーソナルデータ」の第2セッションに登壇しました。ご参加いただいた皆さま・関係者の皆さま、誠にありがとうございました!
私の報告資料「AI社会における『個人』と自律」は、以下でご覧いただけます。
普段のパーソナルデータ+α研究会メンバーも豪華なのに、シンポジウムは輪をかけて贅沢で、本当に辛かったです。
さらに、「傍聴」席まわりも重厚長大な雰囲気で逃げ出したくなりました。御大たちを前にして、なぜ私が「個人」とか「自律」とか「尊厳」とかのお話をせねばならないのでしょう…。いえ、ご来場いただいたのはとても嬉しかったのですが…。
あと、事務局としてロジまわりも担当しました。事務方と登壇とを同時にやるのは、なかなか無理がありますね。疲れた疲れた…。
でも、最後まで離席率がとても低かったので、ご関心をもってお聴きいただけたのではないかと思います。ご参加いただいた皆さまから好意的なコメントもいただいて嬉しかったです。やってよかった。
続きを読む
Tokyo Statement に賛同しました
2017年10月に開催された Beneficial AI Tokyo の参加者有志が「有益な人工知能 −Beneficial AI− 実現への協力」という statement をまとめました。私も参加・賛同しまして、署名リストの末席を汚しています…。
http://bai-japan.org/tokyo_statement/
予測アルゴリズムに関する倫理的分析レポート
公共安全に係る予測アルゴリズムについての倫理分析レポート。
上記は、カナダのブリティッシュ・コロンビア州の安全当局(BC Safety Authority)を対象としたもの。行政の安全管理者(例えば送電システムの安全管理担当の職員)が、検査作業の優先順位付けなどを行う際、予測アルゴリズムやAIを意思決定支援システムとして利用すること(例えば、リスクの高そうな送電機器をAIがサジェストしてくれるので、それに基づいて現場に向かって点検を行う)を想定して、どのような倫理リスクがあるか、また、どのように対処すべきかを分析している。
人間の意思決定を支援する予測アルゴリズムは、作業の効率化などによって組織に多大な利益をもたらすことは間違いない。しかし、例えば以下のような倫理的課題があると指摘されている:予測結果がなぜそうなるのかすぐには説明できないなど、透過性が欠けている可能性がある。また、バイアスを含むデータセットを学習対象とすると、予測結果にもバイアスが潜在することが知られており、意図しない差別を招く可能性がある。さらに、従来の(人間だけの)意思決定過程と比べて、責任の所在が曖昧になったり、変わったりする可能性がある。この他にも、プライバシーや個人の自律、雇用への影響などの課題もある。
そこで、(1)明確な目標設定、(2)設計の透明性、(3)機械の自律性に関する決定、(4)モニタリングの実践、(5)コミュニケーションの実践、の5点を推奨事項としている。
ところで、文責の Generation R は、昨年に設立されたロボット・AIの倫理に関するコンサルティング企業らしい。
当局が予測アルゴリズムやAIを導入する時に、どのように倫理リスクを特定して対処するべきかのケーススタディが紹介されていて、面白いし参考になる(しかし「Comprehensive Ethics Assessment (CEA)」かあ…)。
共訳『ロボット法』 が公刊されました
訳者の一人として参加した、ウゴ・パガロ著『ロボット法』(勁草書房) が1月30日に出版されました。 ロボット・AIと法を考えるフレームワークとして参考になると思いますのでよろしくお願いいたします!
新保先生、松尾先生、赤坂先生、本当にありがとうございます。また、多くの方々にご指導・ご支援をいただいたことに心より御礼申し上げます。特に、勁草書房編集部のYさまには長期に渡りご苦労をお掛けいたしました。感謝いたします。
関連して、2月4日より『ロボット法』刊行記念フェアが大阪の紀伊國屋書店梅田本店さまにて開催されています。
法律書だけでなく、理工、人文・社会学、文芸まで必読文献81冊をセレクト。推薦コメントが載っているブックガイドも無料で配布されています。「ロボット・AIと生きる社会」を考えるきっかけになれば幸いです。
【2/20 追記】「基本読書」の冬木糸一 (id:huyukiitoichi)さんに書評をいただきました。ありがとうございます!