Skip to main content Skip to first level navigation

RICOH imagine. change.

日本 - リコーグループ企業・IRサイト Change
Skip to main content First level navigation Menu
Breadcrumbs

Share

Main content

AIリスク管理には「市民の目線」が不可欠

=日本危機管理学会がAI・DX・セキュリティー研究部会を開催=

2020年09月16日

最先端技術

研究員
米村 大介

 日本危機管理学会は2020年9月5日、「新たな技術に関する企業倫理と内部統制的活動に関する考察」をテーマに据え、AI・DX・セキュリティー研究部会の今年度初会合を開催した。ウェブ会議システムを活用した初のリモート開催。報告者の佐藤誠氏(筑波大学ビジネス科学研究科博士後期課程)が、企業が人工知能(AI)を活用したサービスを展開する際に起こり得るリスクや、その統制について研究成果を発表した。

写真発表中の佐藤誠氏
(写真)筆者

 この中で佐藤氏は、企業がAIのリスク管理を行う上では、「利用者の感覚」を中心に据えるべきだと主張した。例えば、AIの定義は学術的視点からだけでなく、「市民の感覚」を考慮しなければ、利用者と話がかみ合わなくなるからだという。

 また 、人権・プライバシー侵害リスクに十分注意しながら、AIを社会に役立てていく上では、「人権」「公共の福祉」「損害」と「利益」の天秤を意識しながらAIの利用を統制しなければならないと指摘した。

 AIによる人権・プライバシー侵害リスクの特徴として、SNSなどを通じた拡散が懸念されるため、佐藤氏は「市民の目線」を考慮することが重要だと強調した。このため、従来の内部統制の手法に加え、工学・社会調査・危機管理といった学術横断的な視点の重要性を訴えた。

 ここで筆者が思い出したのが、独立行政法人情報通信研究機構(NICT)が2014年に大阪パークシティで計画した実験である。これは、商業施設で災害発生時の避難誘導が必要になる場合、監視カメラを利用した「顔認証」で人の流れを確認するという試みだ。

 ところがこの実験前、「個人を監視する社会につながりかねない」といった批判が沸き起こった。このため、急きょNICTは実験計画の内容を第三者委員会に検証してもらった。その結果、法律には抵触しておらず、個人を特定できない実験との判断を得た。

 しかし、「市民の目線」からは「気持ち悪い実験」というイメージが出来上がってしまい、NICTは予定した不特定多数を対象にした実験を中止した。それから6年経った今も、個人が特定されるデジタルサービスにおいては同様のリスクを払拭できない 。

 また、企業がデジタルトランスフォーメーション(DX)志向を強める中、一部の人が不快感を抱くだけでサービスが立ちいかなくなる事態も増える。今後、「人も企業も安心できる」デジタルサービスには、人の気持ちを配慮する仕組みが求められよう。

図表(提供)佐藤誠氏

 発表後の質疑応答・意見交換では、「AIによる意思決定はだれが責任をとるのか」「AIの問題にはアルゴリズム単体のほか、社会の文化・倫理との相性という問題もあるのでは」といった指摘がなされた。これに対して佐藤氏は、AIには内部監査の必要性もあるほか、AIの活用には地域の文化・法律への理解が求められるなどと応じた。

 一般社団法人・日本危機管理学会の活動や入会に関心のある方はホームページを御参照ください(https://crmsj.org/)。

TAG:

※本記事・写真の無断複製・転載・引用を禁じます。
※本サイトに掲載された論文・コラムなどの記事の内容や意見は執筆者個人の見解であり、当研究所または(株)リコーの見解を示すものではありません。
※ご意見やご提案は、お問い合わせフォームからお願いいたします。

戻る