SNSボタン
記事分割(js記載用)

「AI倫理」はなぜ必要? AI時代に必要とされる責任ある行動

AI倫理はなぜ必要? AI時代に必要とされる責任ある行動

学習データをもとに画像や文章、音声、動画などを生成する生成AIの登場で、AIが一気に身近なツールとなってきましたよね。
ビジネスだけでなく、教育分野や個人の創作活動など幅広い分野での活用へと拡大する一方で、AIの活用によって引き起こされる新たなリスクについても議論が巻き起こるなど、「AI倫理」という言葉に注目が集まっています。AIの社会実装をけん引する企業として、どのように向き合っているのか、ソフトバンクのAIガバナンスを担当するAI戦略室 室長の松田慎一、法務・リスク管理本部 法務統括部の山口薫に話を聞きました。

松田 慎一(まつだ・しんいち)

ソフトバンク株式会社 IT統括 AI戦略室 室長

松田 慎一(まつだ・しんいち)

2013年ソフトバンク入社、2020年より現職。AI戦略室室長として、AI技術を活用したソリューション開発、データ分析・利活用の支援、産学連携による共同研究の事業化、AIガバナンスなどを推進。

山口 薫 (やまぐち・かおる)

ソフトバンク株式会社 コーポレート統括 法務・リスク管理本部 法務統括部 担当部長

山口 薫(やまぐち・かおる)

日本テレコム株式会社(現ソフトバンク株式会社)に2005年入社後、18年余り法務部に所属。法務部課長を経て現職。国内法務業務全般を対応。

安心・安全なAI社会の基盤。今「AI倫理」が必要とされる理由とは

安心・安全なAI社会の基盤。今AI倫理が必要とされる理由とは

「AI倫理」という言葉を最近よく耳にしますが、どのようなことを示す言葉なのでしょうか?

松田

倫理とは私たちが善悪を判断するための道徳的な原則のことですが、AI倫理は一言で表すとAIを正しく使うための原則と言えると思います。
AIの使い方によって人類の普遍的な権利を侵害したり価値観に反するようなことがないようにするための指針とも言えますね。

AIに倫理的な思考を持たせる、というよりは、AIを開発したり利用する側の人間が遵守すべき指針ということですね?

松田

AI倫理はあくまでも、AIを正しく使うための原則になりますが、人間が使い手として正しい倫理観をもって活用することで、結果的にAIに倫理観を持たせることにもつながると思います。

なぜ今「AI倫理」が必要とされているのでしょうか。

安心・安全なAI社会の基盤。今AI倫理が必要とされる理由とは

松田

AIの技術が急速に発展したことで、AIが人間の知的な活動に相当する多くの作業を担えるようになったことが大きいと思います。AIはとても便利な技術ですが、使い方を誤ってしまうと、差別や偏見を助長してしまったり、プライバシーや安全を脅かすようなことにもつながります。
さらに生成AIの出現でこのリスクはより高まっており、AIが生成する自然で豊かな表現によって人々が惑わされてしまうことが簡単に起きてしまいます。
こういった問題を防ぎ、AIが人々にとって有益なものであり続けるために、AIが社会に受け入れられるための指針としてAI倫理が必要とされてきているのだと思います。

AI社会に潜む新たなトラブルやリスクとは

AIの活用により、新たなリスクが生まれている、とのことですが具体的にはどのようなリスクがあるのでしょうか?

山口

企業でAIを活用することに関連するリスクとしては、機密情報漏えいや個人情報の不適正利用、犯罪の巧妙化・容易化、偽情報などによる社会の混乱・不安定化、サイバー攻撃の巧妙化、著作権侵害のリスクが挙げられています。また、AI技術の進歩により、簡単に人の行動予測やプロファイリングができるようになり、また、人々がAIに頼った意思決定や行動をするようになれば、人権侵害のリスクや民主主義の基盤が脅かされるリスクが増すと言われています。

AI社会に潜む新たなトラブルやリスクとは

松田

反社会的な勢力や独裁国家が生成AIの技術を悪用することで、フェイクニュースをネット上にまき散らすということが現実に起きています。そういった悪意がなくとも、AIは人間が過去に創造したコンテンツに基づいて統計的に生成しているため、そこに含まれていた認識のゆがみや思考の偏りといったバイアスを反映してしまう性質があり、例えば人種や性別などによるステレオタイプを再生産してしまいやすいといった問題もあります。

AI社会に潜む新たなトラブルやリスクとは

山口

AI自体は人間の価値観や規範意識を持たないので、AIを開発して利用する側が、意識的に人権感覚や規範意識をもって開発・利用することが非常に重要なのだと思います。過去には、学生の内定辞退率を本人同意なしにAIで予測し、有償でデータを提供していた企業に対して、個人情報保護委員会が勧告・指導を行い、厚生労働省東京労働局が職業安定法違反で行政指導をした事案がありました。人権感覚や規範意識をもって注意深く社内で検討していれば避けられた事案なのではないかと思います。

また、昨年には、イラストレーターの個性を反映した絵を生成できるサービスとして国内企業が公開した画像生成AIが、悪用の危険があるとしてイラストレーターを中心に批判の声があがり、公開翌日にサービス提供を一時停止せざるを得なくなった事案も生じています(その後、不正利用対策を講じたサービスを公開)。

そういった問題に対して、世界ではどのような議論が行われているのでしょうか?

山口

国内では、政府のAI戦略会議において、生成AIを中心にAIに関するリスクと論点整理がされています。2023年10月30日には、G7首脳声明として、高度なAIシステムを開発する組織向けの国際指針と国際行動規範が公表されました。
同じ10月30日、米国では、AIの安全性の確保や技術革新を図るための大統領令が発令され、AI開発企業はサービス提供や利用開始前に、政府による安全性の評価を受けることが義務付けられました。他にも、米国議会ではAI規制に関する法案づくりが進められていることが報道されています。
EUでは、2021年4月に、欧州連合AI規制法案が公表されており、2024年後半に全面施行予定の本法案ではAIのリスクと利用規制について詳細に規定されています。

松田

AI倫理が取り扱う課題は基本的に人類で普遍的なものであり万国共通ですので、国内外でそれほど大きな違いはないと思います。EUや米国で法規制(ハードロー)の導入が進む中、これまで日本では規制に慎重な姿勢でしたが、今後は日本でもEUにならったリスクベースのアプローチが取り入れられ、リスクの高い分野では規制を強化する方向になるのではないかと考えています。

山口

EU域内にいる人をターゲットにAIシステム・サービスを提供するなど一定の場合には、日本など第三国にいる提供者にも規制が及び、違反時には巨額の罰金が科せられる可能性があることから、当社も無関心ではいられません。

松田

ソフトバンクも、グローバルの動きに合わせる形で、関連するISOの国際標準への準拠など準備を進めています。

AI活用のブレーキとアクセル両方を担うAIガバナンスを

あまりにもルールを厳格化しすぎることで、AIの進化を妨げる側面も懸念されていますが。

松田

そのバランスが一番難しいところだと考えています。AIは進化が激しく技術的にも複雑である特性上、技術的に詳細で明確な規則・基準を設定しづらいといえます。

ソフトバンクでAIガバナンスを推進する立場として、ガイドラインという形でより具体的・現実的な指針を示したり、現場で判断に困ることについてしっかりと相談にのってあげられる社内の体制づくりや、各案件で検討した内容や対応方法のノウハウを集約して共有することが重要だと考えています。

さらに言えば、この相談を通して、リスクを回避するためにしてはいけないことを確認するだけでなく、例えばよりAIの精度を引き出したり、うまく利活用するためのアドバイスや仕組みを提案・提供するといったことも、セットで行えるようにしたいと考えています。
こうすることで、私たちは、AI活用のブレーキ役だけでなく、アクセル役にもなれると思っています。

個人にも求められる責任ある行動

生成AIの登場により、企業だけでなく個人もAIを活用する機会が増えていくと思いますが、私たちはどのような点に注意して利用していくべきでしょうか?

山口

一言でいうと、企業で利用する場合は、AIガバナンスに関する社内規程と基準を遵守し、人権感覚と規範意識をもってAIを利用することです。なお、生成AIを利用する場合は、企業、個人での利用いずれにも当てはまることですが、生成AIによる生成物が他人の著作物と類似している可能性に留意する必要があります。生成AIによる生成物が日本の著作権法上、著作権侵害となる要件(依拠性および同一または類似性)の判断に関しては今後議論されることとなっており明確な基準が存在しないため、少なくとも、生成AIによる生成物をそのままの形で利用することや、個人としても公表することは避けた方が無難と言えます。

ありがとうございました。

あわせて読みたい関連記事

2022年7月に策定されたソフトバンクの「AI倫理ポリシー」について紹介しています。企業がどのような観点でAI活用におけるリスクや法の遵守に取り組んでいるのか、その特徴や思いについて話を聞いています。

(掲載日:2023年12月6日)
文:ソフトバンクニュース編集部