AI倫理を考える ~AI利活用ガイドラインを題材に~

このエントリーをはてなブックマークに追加

今回のテーマは「AI倫理」です。

人としてどう振る舞うかを考えるのが倫理であり、AIという技術を使う時に私たちが考えなければいけないことがAI倫理です。
昨年から今年にかけてAI倫理に関する原則が公表されたり、学会やシンポジウムでのテーマに取り上げられたりする機会が増えてきました。
AI技術のほか再生医療技術とかロボット開発とか、先端技術に関連する倫理は研究者とか開発者などの専門家が専門家のために考えるものとイメージしがちです。そうでしょうか。

トロッコ問題

AIと倫理の話題でよく出るのはトロッコ問題です。

出典:いらすとや

トロッコ線路のポイントを切り換えて行き先を選択するだけの思考実験ですが、例えば人工知能(AI)を搭載した自動運転車をトロッコに見立ててAIにどう選択させるかという問題になります。
そして、その選択は進路の先にいる人間の命を決める問題であり、別人を使って止めたり、犠牲となる人の年齢や社会的地位など条件を変えながら考えを進める頭の体操です。しかし自動運転車を暴走トロッコに見立てることやこの状況設定に対する理不尽さ、選択肢の無さに愕然とします。トロッコのブレーキはどうしたの?トロッコをスタートさせたのは誰?何で分岐先の進路に人がいるの? あくまで思考実験なのでそれはそれで考える価値があると思いますのでここでは深追いしません。

ただ、実際の場面を考えると、そもそもこの判断を行わなければならない状況に陥ったことが問題であり、運用管理者の責任が問われる事案です。疑問は尽きず再発防止のためトロッコ運用管理の抜本的な改革が求められるところです。
現実のAIシステムを想定しながら考えると先程の登場人物の中でトロッコ線路のポイントを切り換える判断基準を整える管理責任者は誰でしょうか。それを整理して考える手がかりとしてAI利活用ガイドラインがあります。

AI利活用ガイドラインとは

AI利活用ガイドライン[2]は、総務省が2019年8月に公表したAIネットワーク社会推進会議の報告書[1]の中に含まれ、AI利活用原則及び同原則を実現するための具体的方策について取りまとめたものです。

今回紹介するAI倫理は、AIを使って運用するシステムを開発する人と利用する人が、システムを作る前、行動する時、行動した後の考え方です。これは、AIに関連するシステムの開発に携わっている私たち(=開発事業者)はもちろん、そのシステムを利用するユーザー企業様(=最終利用者、ビジネス利用者)それぞれが考えるものとしています。

AI利活用ガイドラインでは、開発者のほか利用者であるAIサービスプロバイダ、最終利用者、さらにその先のビジネス利用者と消費者的利用者、データ提供者、影響を受ける第三者を関係者として整理しています。対象となっているAIシステムをそれぞれの立場で評価し、AIシステムへの対応を考える必要があります。

出典:総務省 AIネットワーク社会推進会議 「報告書2019概要」[8]より

それらの原則は、AIの利活用や社会実装を促進することを目的とし、”便益の増進”、”リスクの抑制”、”信頼の醸成”の働きをもつと整理されています。

出典:総務省 AIネットワーク社会推進会議 「報告書2019概要」[8]より

ここで、ご注意いただきたいのは「10 アカウンタビリティの原則」の項目です。アカウンタビリティを説明責任と訳す場合もありますが、AI利活用ガイドラインでは訳さず “アカウンタビリティ” としています。
図中の注釈には、「その判断の結果についてその判断により影響を受ける者の理解を得るため、 責任者を明確にした上で 、判断に関する正当な意味・理由の説明、必要に応じた賠償・補償等の措置がとれること。」と定義されています。
また、欧州委員会のアカウンタビリティに関するアセスメント項目[17]※には、監査性、マイナスの影響の最小化と報告、トレードオフの文書化、救済能力が挙げられています。

※p31 TRUSTWORTHY AI ASSESSMENT LIST (PILOT VERSION)

AI倫理をめぐる動向

AI倫理・原則に関わる国内、海外、国際的な動向をまとめたのが以下になっています。これはAI利活用ガイドラインが公表された2019年8月時点の資料になります。2018年暮れから2019年前半に大きな動きがあり、これに続いてAI利活用ガイドラインが公表された形になります。

出典:総務省 AIネットワーク社会推進会議 「報告書2019概要」[8]より

内外の動向を詳しく報告された2020年6月の最新資料が「チュートリアル:AI 倫理とガバナンス:世界動向と産業界の取り組み」[16]になります。

AI倫理の実装

2020年5月27日情報通信法学研究会 AI分科会にて「AI開発原則・利活用原則の事業者による実施とコーポレート・ガバナンス」[11]という発表がありました。
そこで提起された課題が実装の問題です。


出典:小塚荘一郎 「AI開発原則・利活用原則の事業者による実施とコーポレート・ガバナンス」[11]より

一方、新保史生「AI原則は機能するか? ―非拘束的原則から普遍的原則への道筋」[10]によれば2020年は団体や事業者によってAI原則が多数表明される予言されていますが、その形骸化も懸念されています。

富士通グループもAIの研究開発やビジネスに携わる企業としてAI倫理を含む価値観に基づき、守るべき項目を整理し「富士通グループAIコミットメント」[18]を公表しています。

富士通グループAIコミットメント

2019年3月富士通は「富士通グループAIコミットメント」[18]を公表し、AIの研究開発やビジネスに携わる企業として、AI倫理を含む価値観に基づき、守るべき項目を整理しました。

●骨子
1. AIによってお客様と社会に価値を提供します
2. 人を中心に考えたAIを目指します
3. AIで持続可能な社会を目指します
4. 人の意思決定を尊重し支援するAIを目指します
5. 企業の社会的責任として、AIの透明性と説明責任を重視します

各所からAI倫理原則が発表されている中で、AI倫理への対応を2015年から謳っていた富士通も、AI倫理に関する取り組みを具体的に説明すべきと考え、AIコミットメントを策定した。これはお客様や社会に対して、富士通がAIの開発者、提供者として自らを律し、AIがもたらす価値を広く社会に普及させる役割を果たす意思表明である。
富士通グループの理念に基づき、AIの研究・開発・提供・運用に携わる者の責務としてお客様・社会との接点を重視し、「お客様起点のAI」「信頼できるAI」「責任あるAI」を提供する。このために「富士通グループでAIに関わるすべての役員・従業員」が従う行動指針を規定する。」

※雑誌FUJITSU 2019年9月号 「AI倫理への取り組み:富士通グループAIコミットメントの制定」[22]より

他の指針やガイドラインと比較する以下になります。
富士通グループAIコミットメントとAI利活用ガイドラインでの指針項目がほぼ一致していることが分かります。また、名宛人として利用者を挙げているのはAI利活用ガイドラインだけになります。
指針項目の詳細については「AI倫理指針の動向とパーソナルAIエージェント」[9]をご参照ください。

出典:中川裕志「AI倫理指針の動向とパーソナルAIエージェント」[9]を元に改変

最後の鍵は「利用者」が持っている

AI利活用ガイドラインを中心としてAI倫理に関する議論を俯瞰してきましたが実際にはどのように実践すればよいのでしょうか。
残念ながら模範回答はありません。ここでご紹介したことや参考リンクをよく読んで考えてみてください。
考えるヒントとして、2019年のリクナビ問題、感染追跡システムの議論において、AI利活用ガイドラインに盛り込まれた要素の意味は理解できると思います。これらは開発者だけでなく利用者も考える必要があります。感染追跡システムでは利用者がどうありたいか、どう使いたいかということがいかに重要か突きつけられた事案ではないでしょうか。

【追記】
今年6月に開催された人工知能学会https://www.ai-gakkai.or.jp/jsai2020/においてもセッションや講演が行われ、専門家の間でも継続した議論が続いています。
■セッション 25件
・「人工知能におけるプライバシー、公平性、説明責任、透明性への学際的アプローチ」 8件
・「人工知能と倫理」 8件
・「AIを人と社会の側から考える」 7件
■講演 2件 (概要や発表スライドが公開されています)
-企画セッション「人を”よみがえらせる”技術としてのAI創作物:AI美空ひばりとAI手塚治虫を例に」[15]

-チュートリアル「チュートリアル:AI 倫理とガバナンス:世界動向と産業界の取り組み」[16]


参考リンク
■総務省関連
●情報通信政策研究所「AIネットワーク社会推進会議報告書2019の公表」2019年8月9日
https://www.soumu.go.jp/menu_news/s-news/01iicp01_02000081.html
[1] ・報告書2019(本体)https://www.soumu.go.jp/main_content/000637096.pdf
[2] ・別紙1 AI利活用ガイドラインhttps://www.soumu.go.jp/main_content/000637097.pdf
[3] ・別紙1(附属資料) AI利活用原則の各論点に対する詳説https://www.soumu.go.jp/main_content/000637098.pdf
[4] ・別紙2 AIガイドライン比較表https://www.soumu.go.jp/main_content/000637099.pdf
[5] ・別紙3 報告書2019(案)に関する意見募集に寄せられた主な意見に対する考え方https://www.soumu.go.jp/main_content/000637100.pdf
[6] ・別紙4 AIネットワーク社会推進会議及び検討会構成員一覧https://www.soumu.go.jp/main_content/000637101.pdf
[7] ・別紙5 開催経緯https://www.soumu.go.jp/main_content/000637102.pdf
[8] ・報告書2019概要https://www.soumu.go.jp/main_content/000637103.pdf

●情報通信法学研究会 AI分科会ほか
[9]中川裕志「AI倫理指針の動向とパーソナルAIエージェント」2019年12月19日
https://www.soumu.go.jp/main_content/000679318.pdf
[10]新保史生「AI原則は機能するか? ―非拘束的原則から普遍的原則への道筋」2019年12月19日
https://www.soumu.go.jp/main_content/000679321.pdf
[11]小塚荘一郎「AI開発原則・利活用原則の事業者による実施とコーポレート・ガバナンス」2020年5月27日
https://www.soumu.go.jp/main_content/000689960.pdf
[12]総務省 AIネットワーク社会推進会議
「国際的な議論のためのAI開発ガイドライン案」 平成29年7月28日
https://www.soumu.go.jp/main_content/000490299.pdf
[13]内閣府 統合イノベーション戦略推進会議
「人間中心のAI社会原則」,平成31年3月29日
https://www8.cao.go.jp/cstp/aigensoku.pdf

●人工知能学会ほか
[14]人工知能学会倫理委員会「「人工知能学会 倫理指針」について」2017年2月28日
http://ai-elsi.org/archives/471
[15]人工知能学会倫理委員会「【開催報告】2020年度人工知能学会全国大会「人を”よみがえらせる”技術としてのAI創作物:AI美空ひばりとAI手塚治虫を例に」(2020/6/10)」2020年6月22日
http://ai-elsi.org/archives/1088
[16]中川裕志「チュートリアル:AI 倫理とガバナンス:世界動向と産業界の取り組み」2020年6月11日
https://www.ai-gakkai.or.jp/jsai2020/wp-content/uploads/sites/10/2020/06/jsai2020_tutorial_nakagawa.pdf
[17]Ethics guidelines for trustworthy AI (8 April 2019)
https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419

■富士通関連
●リリース
[18]AIの安心・安全な利用に向けた「富士通グループAIコミットメント」を策定
富士通株式会社 PRESS RELEASE 2019年3月13日
https://pr.fujitsu.com/jp/news/2019/03/13-1.html

●FUJITSU JOURNAL(富士通ジャーナル)
[19]説明可能なAI
https://blog.global.fujitsu.com/jp/can-ai-be-trusted/
[20]AI原則って何だろう?(前編)―「信頼」と「倫理」が問われる“明日のAI”
FUJITSU JOURNAL  2019年11月14日
https://blog.global.fujitsu.com/jp/2019-11-14/01/
[21]AI原則って何だろう?(後編)―人間中心のAI原則で広がる「AI×倫理」
FUJITSU JOURNAL  2019年11月14日
https://blog.global.fujitsu.com/jp/2019-11-14/02/

●雑誌FUJITSU
2019年9月号 (Vol. 70, No. 4)
https://www.fujitsu.com/jp/about/resources/publications/magazine/backnumber/vol70-4.html
[22]AI倫理への取り組み:富士通グループAIコミットメントの制定
https://www.fujitsu.com/jp/documents/about/resources/publications/magazine/backnumber/vol70-4/paper03.pdf

●新聞記事
[23]富士通、安心・安全なAIの社会実装に向け「富士通グループAI倫理外部委員会」を設置
日本経済新聞 2019/9/30 13:55
https://www.nikkei.com/article/DGXLRSP520189_Q9A930C1000000/


【無料ウェビナーのお知らせ】
「DX/AI推進を担当しているがうまく進まない」方に最適なウェビナーを企画しました

事業会社がAIを導入するには、現場から経営層までが一体となり、熱量をもってAI開発に携わることが重要です。そしてその成功の鍵となる考え方が「UX first」です。
本ウェビナーでは、これまで弊社が事業会社とAIプロジェクトを進めて感じた気付きから、「UX first」で進める必要性についてお伝えします。

<ウェビナータイトル>
経営層も熱狂させるAI活用~成功の鍵は「UX First」~
<プログラム>
1.データデザイン事業のご紹介
2.AI活用が進まない理由とは
3.AI活用における「UX First」な進め方とは
4.なぜ「UX First」だとうまくいくのか?事例のご紹介
5.QAタイム

日時:2020年12月10日(木) 13:15~14:15
参加方法:Zoomで参加(参加費無料)

お申し込みはこちら

WRITER
Atsushi Kuromasa

Atsushi Kuromasa

黒政   敦史 Atsushi Kuromasa

●外部参加団体や活動・・・情報法制研究所 上席研究員、情報法制学会 会員、情報処理学会 電子化知的財産・社会基盤研究会(EIP) 幹事、CSS2020 PWS2020実行委員など。 ●最近の論文・寄稿・・・「"匿名加工されたデータの利活用に向けた課題","黒政敦史","学術雑誌『情報通信政策研究』3巻2号"」、「"PWS Cup 2019: ID識別・トレース推定に強い位置情報の匿名加工技術を競う", "村上 隆夫,荒井 ひろみ,井口 誠,小栗 秀暢,菊池 浩明,黒政 敦史,中川 裕志,中村 優一,西山 賢志郎,野島 良,波多野 卓磨,濱田 浩気,山岡 裕司,山口 高康,山田 明,渡辺 知恵美","コンピュータセキュリティシンポジウム2019論文集,2019,1485-1492 (2019-10-14) "」、 「"匿名加工情報および非識別加工情報の運用整理と利活用に関する考察", "黒政 敦史", "情報処理学会 研究報告電子化知的財産・社会基盤(EIP),2019-EIP-84(2),1-8 (2019-05-27) , 2188-8647"」、「"個人データの保護と流通を目的とする匿名化と再識別コンテスト:PWSCup", "小栗 秀暢 ,黒政 敦史,中川 裕志,菊池浩明,門田 将徳", "情報処理学会デジタルプラクティス Vol.9 No.3 (July 2018)"」、「"ビッグデータの加工・取扱 -匿名加工情報の役割と活かし方-", "黒政 敦史", "情報処理Vol.59No.4Apr.2018 小特集 情報社会 -今そこにある課題-"」、「"匿名加工情報の加工方法と有用性・安全性指標の考察~匿名加工・再識別コンテスト2017から~", "黒政 敦史 , 小栗 秀暢 , 門田 将徳", "情報処理学会 研究報告電子化知的財産・社会基盤(EIP),2017-EIP-78(9),1-8 (2017-11-22),2188-8647"」

SNSで最新情報を発信しています

最新記事

ページTOPへ