シンギュラリティ時代、法律は企業とAIをどう裁くのか

中央大学教授・法学者 平野晋インタビュー

シンギュラリティ時代、法律は企業とAIをどう裁くのか

  • 自律型ロボットの社会実装に向けて、ロボット法に関する議論が交わされている
  • 日本では総務省が「AI開発ガイドライン案」を策定
  • AI化が進むと企業のリスクは高まり、説明責任が生じる

レイ・カーツワイル氏が提唱したシンギュラリティ(技術的特異点)が、そう遠くはない未来に到来すると言われている。AI(人工知能)やロボティクス等のテクノロジーは今、劇的なスピードで進歩し、社会的な期待も徐々に高まっている。しかし他方で、産業機械や交通インフラ等、あらゆるものがAIとつながり、その影響範囲を広げていくごとに、開発をする企業のリスクが高まっていることも事実だ。

それを考えるうえで興味深い書籍がある。2017年11月に上梓された『ロボット法—AIとヒトの共生にむけて』(弘文堂)だ。シンギュラリティ時代の法整備はどうあるべきなのか。はたまた、そのとき企業やロボット開発者たちはそこにどう向き合うべきなのか。著者である中央大学総合政策学部の教授、法学者の平野晋氏にお話を伺った。

平野晋

中央大学総合政策学部 教授
中央大学法学部法律学科卒業。コーネル大学ロースクールを修了し、ニューヨーク州法曹資格試験に合格。NTTドコモ法務室長などを経て、現職。2018年より中央大学国際情報学部・開設準備室長も務める。総務省管轄のAIネットワーク社会推進会議の幹事及び分科会会長として「AI開発ガイドライン案」「AI利活用原則案」などの策定に携わる。

なぜ今、ロボット法が必要とされるのか?

カーツワイルが唱える、来たるべきシンギュラリティ時代の「人とロボットが共生する社会」実現に向け、世界各国の研究者・学者たちがAIやロボットに関するルールや法律——通称「ロボット法」について研鑽を重ねている。ロボット法とは何か。平野氏はその背景を次のように解説する。

平野:

「完全自動運転車」のようにAIを備えた自律型ロボットが社会実装され、世の中を変革していくことは、そう遠くない未来として予見されています。だからこそ私たち人類は、今のうちから人と自律型ロボットの共生社会における“リスク”あるいは“法的課題”を予測・把握し、万事に備えた法整備などに備えておかなければなりません。特にここ数年の間、私のような法学の専門家、さらには研究家、民間企業、国の公的機関などなど、世界中でロボット法に関する議論を交わしています。

インターネット黎明期には「サイバー法(インターネット法)」の研究が進められたが、平野氏曰く「民間企業や開発者の世界でも、それが今ロボット法へとシフトしている」という。では、人と自律型ロボットの共生社会には、どのような“リスク”や“法的課題”があるのだろうか。

平野:

例えば海外ではAIを活用した犯罪予測・治安対策が実証的に進められています。これは「このエリアでは特定の曜日に不法侵入が多い」といったことを予測・対処する試みです。犯罪抑止につながる有益な取り組みの1つですが、この取り組みが仮に“行き過ぎ”てしまったときのことを想像してみてください。例えば国民のパーソナルなデータから「あなたはこういう属性だから、やがて犯罪をする蓋然性がとても高い」なんてことをAIによって判定されたとしたら。悪しき差別やレッテル貼りを助長しかねません。映画「マイノリティリポート」のようなディストピア(反ユートピア)が、もはやフィクションでは無い世界に成ってしまいかねないのです。
これは極端な例かもしれませんが、自律型ロボットが何かの損害をもたらしたときのリスクのみならず、AIというテクノロジーをどこまで社会のなかで適用させてもよいものなのか、そうした社会的影響についても私たち専門家が十分に協議しておかなければいけません。

AI開発の日本版ガイドラインが策定

具体的に、ロボット法はどのようなかたちで社会に整備されていくのだろうか。平野氏によると、こうした国際的議論がともなう法整備は「ハードロー」と「ソフトロー」の両面から考えなくてはならないという。

平野:

ハードローとはすなわち強制力の高い法律です。この場合、属地的に各国で法律が施行されたり、国際条約が締結されたりすることが想定されます。しかし今回のロボット法のケースは後者——ソフトローとして整備が進んでいくのではないでしょうか。つまり、強制力はそれほどない“やわらかなルール”として、例えば“国際的ガイドライン”が各国に広がり、国やマスコミから民間企業や国民宛てに公表される、そんなアプローチが想定されます。

平野氏は2018年から総務省参与の「日本代表」として東京大学・須藤修教授とともにOECD(経済協力開発機構)による国際的な「AI専門家会合:「AIGO」(Artificial Intelligence expert group at the OECD)に参加。この場で総務省「AIネットワーク社会推進会議」のなかでかねてから議論を進めてきた“日本版ガイドライン”を海外にも示した(下図)。

AI開発ガイドライン案(9原則)

①連携の原則 開発者は、AIシステムの相互接続性と相互運用性に留意する。(主にリスクの抑制に関する原則)
②透明性の原則 開発者は、AIシステムの入出力の検証可能性および判断結果の説明可能性に留意する。
③制御可能性の原則 開発者は、AIシステムの制御可能性に留意する。
④安全の原則 開発者は、AIシステムがアクチュエータ等を通じて利用者および第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。
⑤セキュリティの原則 開発者は、AIシステムのセキュリティに留意する。
⑥プライバシーの原則 開発者は、AIシステムにより利用者および第三者のプライバシーが侵害されないよう配慮する。
⑦倫理の原則 開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。
⑧利用者支援の原則 開発者は、AIシステムが利用者を支援し、利用者に選択の機会を適切に提供することが可能となるよう配慮する。
⑨アカウンタビリティの原則 開発者は、利用者を含むステークホルダーに対しアカウンタビリティを果たすよう努める。

引用元:総務省「AIネットワーク社会推進会議報告書 2017

AI開発の責任の在りかを考える

上記の基本原則のなかで注目すべきは、透明性・制御可能性とアカウンタビリティ(説明責任)の問題だ。開発者が、AIが結果を導きだすプロセスのすべてを把握しておくということは、現実的ではない場合もある。開発者はユーザやステークホルダーに対し、何をどこまで示せばよいのか。

平野:

制御可能性を欠くAIの透明性に関して、AI開発者の主な責任の範囲は、インプットとアウトプットです。「AIがある判断を下した機序・筋道を全て明らかにすることが困難であっても、インプットしたデータとその結果のアウトプットの関係は説明できるようにしておいて欲しい」という考え方が基本です。ガイドライン案(透明性の原則)のなかでは「AIシステムに対する利用者を含む社会の理解と信頼が得られるよう、採用する技術の特性や用途に照らし合理的な範囲で、AIシステムの入出力の検証可能性および判断結果の説明可能性に留意する」としています。

一方でAI・ロボット開発は、企業にとってリスクが高まるという不安もある。万が一、自律型ロボットが何かしらの事故を起こした場合、責任の所在は設計者なのか、AIを育てたユーザなのか。

平野:

万が一AIが事故を起こしたとしたらどうなるか。それは相当因果関係で評価されていくと思います。AIが起こした事故の原因が開発側にあるのか、利用者側にあるのか、そしてそれは予想し得る範囲のものだったのか。十分に検討したうえで、ケースバイケースで判断されていくでしょう。OECD内の議論ではAIシステム自体の監査ができるようにしておく必要がある、という主張も見受けられていて、身体・生命・財産などに影響力のあるシステムに関しては、監査資料の提出義務が生じる可能性はあるでしょう。 またこの議論で興味深いのは、AIネットワークシステムがもたらす相互接続性・相互運用性です。自動運転車にも、あらゆる交通インフラにも、双方にAIが搭載されて相互に繋がり合う「V2I: vehicle-to-infrastructure」な社会が実現された場合、万が一人身事故を起こしたとき、誰が責任を負うのか。部品に埋め込まれたAIなのか、組み立てたメーカなのか、はたまた信号機を制御していたAIか。そうしたことも争点になっていくでしょう。AIとAIがつながり合うことは大きな便益をもたらすのですが、同様に多くの企業にリスクをもたらす。その点も十分に留意しておかなければいけません。

以上を踏まえ、平野氏は最後に、開発企業および開発者に向け、次のように提言した。

平野:

ロボット工学三原則で知られるアメリカの作家アイザック・アシモフも「社会・人類の側が知恵(wisdom)を得るより速く、科学技術が知識(knowledge)を得てしまう世界」を嘆いています。私たちはknowledgeの蓄積速度と同等もしくはそれ以上のスピードでwisdomを蓄積していかなければなりません。AIネットワーク社会推進会議でもご一緒することが多い東京大学大学院工学系研究科の堀浩一教授は「人工知能研究者はいまこそ人文科学を学ぶべきである」と述べられていました。ロボット開発の能力を持った者は、倫理的課題をきちんと踏まえた上で行動すべく、人類の知恵を学ぶべきということです。私は至言だと思いました。ロボット開発者が「マッド・サイエンティスト」と呼ばれないためにも、いまこそ企業は、消費者や社会から信頼を得るためにもガイドラインの動向をウォッチし、自社においてどのようなことを憂慮すべきか、広い視野を持ちながらこの課題に立ち向かっていただきたいです。

■後記

IoTによってあらゆるデバイスに埋め込まれたAIどうしがつながり、ネットワーク化していくことで、企業が開発したAIの与える影響は甚大になります。そしてそこには大きな責任も伴います。今回紹介した9つの原則はあくまでガイドラインで、実定法が制定されるのはまだ先の話。それまで、平野氏が述べたように、開発者や企業が自ら倫理観を持って、AIの開発に取り組んでいく必要があります。シンギュラリティが訪れたとき、人間とAIが共生できる社会であるために。

◼︎AI・機械学習

サービス紹介

サービスに関するお問い合わせ

■関連記事

将棋界で起きたシンギュラリティを、私たち企業も経験する
「PONANZA」開発者 山本一成インタビュー