フォーム読み込み中
「Future Stride(フューチャーストライド)」は、ビジネスの「今」と「未来」を発信するブログです。
皆さまのビジネスに「今」すぐ役立つDXなどの最新トレンド、気になる用語解説のほか、AIなどの最先端の技術や新しいビジネスの姿、社会課題解決に向けた取り組みをソフトバンクがお届けします。
AI(人工知能)は近年の技術革新により、企業活動の多くの面で利用が進んでいます。その一方で、AIの利用に伴う倫理的、法的な問題も課題として取り上げられるようになっており、日本を含む各国で法規制の動きが加速しています。本記事では、EUや米国を中心としたAIに関する法規制の動向と日本企業への影響についてさまざまな法務コンテンツを提供している株式会社LegalOn Technologiesの今野氏に解説いただきました。
株式会社LegalOn Technologies
弁護士
今野 悠樹 氏
東北大学法科大学院修了。
2015年弁護士登録。
ヤフー株式会社、国会議員政策担当秘書を経て、2021年から現職。
社内では法律コンテンツの企画・制作などを担当。
EUでは、AIに関する規制の枠組みとして「Artificial Intelligence Act」(AI法)※1が2024年5月に成立しています。この法律は、リスクベースアプローチ※に基づき、AIシステムをリスクに応じて以下の4つのカテゴリーに分類した上で、それぞれ異なる規制を設定しています。なお、各規制は段階的に施行されることとなっており、①の「許容できないリスク」の規制については、本ブログ執筆時点においてすでに運用が開始されていますので注意が必要です。
※1 http://data.europa.eu/eli/reg/2024/1689/oj
※ リスクの発生可能性と影響度を分析し、優先順位をつけて重要なものから対策を行う手法です。資源を効果的に活用し、リスクを最小限に抑えることができます。
①許容できないリスク(Unacceptable Risk):2025年2月施行
社会的スコアリングや無差別の顔認識システム、サブリミナル効果などによる潜在意識の操作が該当し、原則として使用が禁止されます。
②ハイリスク(High Risk):2026年8月、2027年8月に分けて施行
重要インフラ、採用選考、教育、雇用といった分野で使用されるAIが該当し、リスク管理、データガバナンス、人的監視措置、ログの保存などの厳格な規制が課されます。
③限定的なリスク(Limited Risk):2026年8月施行
対話型のサービス(AIチャットボットなど)や画像生成サービス、感情認識システムといった一定のサービスにおいて、AIを使用していることを利用者に情報開示する義務(限定的な透明性義務)などが課されます。
④最小限のリスク(Minimal Risk)
一般的なAIアプリケーションが該当し、自由に利用可能であり、特別な規制はありません(自主的な行動指針の策定の推奨がされています)。
なお、GDPR同様、EU域内に向けてAIシステムのサービスを提供している事業者であれば、EU域外の事業者であってもAI法が域外適用される可能性がある点に注意が必要です(第2条1項)。
AI法については、欧州連合日本政府代表部の資料「EUAI規制の概要」に概要がまとめられていますので、詳細については同資料をご参照ください。
米国では、バイデン政権下の2023年10月に「The Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence:人工知能(AI) の安心、安全で信頼できる開発と利用に関する大統領令」(EO14110)※2が発令され、AIに対する規制が強化される方向性となっていました。
しかし、トランプ大統領は、就任直後の2025年1月、バイデン政権下で発令された上記大統領令(EO14110)を事実上撤回する大統領令である「Removing Barriers to American Leadership in Artificial Intelligence:人工知能における米国のリーダーシップへの障壁を取り除く大統領令」(EO14179)※3を発令しました。EO14179では、「人工知能行動計画の策定」が掲げられているほか(第4条)、バイデン政権下のEO14110に従って定められたポリシー、規制等を直ちに見直すことなどが宣言されています(第5条)。これにより、米国は国策としてAIに関する規制緩和と開発奨励の方向に転換を図ったといえます。米国のAI規制の具体的内容については今後の動向を注視する必要がありますが、企業には自主的なAIに関する行動規範や倫理規範が求められる一方、法規制は当面は強まらない環境になると考えられます。
米国は州ごとの動きも活発であり、AI規制については、以下の州が特に注目されます。
①ユタ州
ユタ州では、他州に先駆けて、2024年5月に「Artificial Intelligence Policy Act:生成AIポリシー法」(SB 149)※4が施行されています。この法律では、生成AIに利用者との対話をさせるサービスを提供する事業者は、利用者から求められた場合には、対話しているのが生成AIであることを開示しなければならない義務を負います。また、一定の免許等が必要な業務に関わるサービスにおいて生成AIを利用する場合には、生成AIを利用していること明示することなどが必要となります。
②コロラド州
コロラド州では2024年5月に包括的なAI規制法である「Colorado AI Act:コロラド人工知能法」(SB 24-205)※5が成立し、2026年2月の施行に向けて準備が進められています。この法律は、開発者と利用者に「高リスクAIシステム」(導入されると重大な決定を下す、または重大な決定を下す上で重要な要素となる人工知能システム)の使用から生じる「アルゴリズムによる差別」の既知または合理的に予見可能なリスクから消費者を保護するために、合理的な注意を払う義務を課しています。
③カリフォルニア州
カリフォルニア州ではすでに多くのAI関連法が制定されていますが、まだ包括的なAI規制法は制定されていません。しかし、最新の動向として注目されるのが、月間100万以上の利用者がいる生成AIシステムの開発事業者に適用される「AI Transparency Act:AI透明化法」(SB 942)※6と、生成AIの訓練に用いたデータセットの概要を一般に公開することを求める「Generative AI: Training Data Transparency Act:生成AI訓練データ透明化法」(AB 2013)※7の2つの法律です。両法とも、2026年1月から施行・運用される予定です。
このように、米国においては連邦レベルではなく、州レベルにおいてもそれぞれ特色のある対応が進められています。自社のサービスを米国において提供する場合には、連邦レベルの法律や大統領令のみでなく、州ごとの法令にも注意を払う必要があります。
※2 https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence
※3 https://www.federalregister.gov/documents/2025/01/31/2025-02172/removing-barriers-to-american-leadership-in-artificial-intelligence
※4 https://le.utah.gov/~2024/bills/sbillenr/SB0149.pdf
※5 https://leg.colorado.gov/sites/default/files/2024a_205_signed.pdf
※6 https://leginfo.legislature.ca.gov/faces/codes_displayText.xhtml?lawCode=BPC&division=8.&title=&part=&chapter=25.&article=
※7 https://leginfo.legislature.ca.gov/faces/codes_displayText.xhtml?lawCode=CIV&division=3.&title=15.2.&part=4.&chapter=&article=
韓国では、2025年1月に「人工知能(AI)の発展と信頼基盤の構築に関する基本法」(AI基本法)が制定されています※8。この法律により、事業者は、EUのAI法に一部類似する透明性・安全性確保義務などを負うこととなります。なお、この法律では、海外から韓国に向けてAIを利用したサービスを提供する一定の事業者は、韓国国内に国内代理人を設立しなければならないという要件が盛り込まれている点に注意が必要です(第36条)。施行は、2026年1月に予定されています。
中国では2023年にすでに「生成AIサービス管理暫定弁法」が施行されています。これにより、生成AIを活用したサービスを提供する事業者は、合法的な出所のデータと基本モデルを使用すること、知的財産権に関わる場合は、法に基づいて他人の知的財産権を侵害しないこと、個人情報に関わる場合は、本人の同意を得ることなどが義務とされます※9。
本ブログ執筆時点において、インドにはまだAIを規制する包括的な法律はありません。もっとも、2023年に制定されたデジタル個人データ保護法(DPDP法)などの既存の法令により、個人データの処理や悪用の防止など、AI関連サービスにも関係する規定がいくつか設けられています。また、2025年1月より、DPDP法に基づく保護規則案がパブリックコメントに付されており、その動向が注目されます※10。
2024年4月、経済産業省と総務省は、「AI事業者ガイドライン(第1.0版)」を公表しました※11。これは、既存のガイドラインである、「AI開発ガイドライン」(2017年、総務省)、「AI利活用ガイドライン」(2019年、総務省)、「AI原則実践のためのガバナンスガイドラインVer1.1」(2022年、経済産業省)を統合・アップデートしたものと位置付けられています。AI事業者ガイドラインは、AIシステム・サービスを広範に対象としており、各事業者におけるAIガバナンスの構築など、具体的な取り組みを自主的に推進することを推奨しています(ガイドラインには法的拘束力はありません)。
また、デジタル庁も、2024年6月、「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」を公表しています※12。このガイドブックは、生成AIの使用により生じる誤情報の生成や機密情報の漏えいなどのリスクの軽減策の一般論を示すことを主な目的としており、企業におけるAIの利活用にも参考になるものと思われます。
ガイドライン中心のソフトローによる対応を続けてきた日本政府ですが、2025年の通常国会には、「人工知能関連技術の研究開発及び活用の推進に関する法律案」(AI新法)※13が提出されました。AI新法では、AI技術の適正な研究開発や活用促進等について政府が基本計画を策定することとされるほか(第18条)、国民の権利利益の侵害される事案が発生した場合、国が事業者への指導や助言を行うことなどが盛り込まれています(第16条)。また、事業者は国等の施策に協力しなければならないとされている点には留意が必要です(第7条)。
もっとも、AI新法は全体として、「規制法」ではなく活用を促す「推進法」としての側面が強いものであり、罰則も設けられないこととなっています。リスクの高いAIを厳格に規制するEU型と、事業者の自主的な取り組みを重視する米国型の中間的な立ち位置で、独自の規制を模索しているのが日本の立場とも言えそうです。日本においては、AI新法の下で、国などと事業者が適切にコミュニケーションを取りながら、今後の規制の在り方を模索していくことになると考えられます。
これまで見てきたように、AIに関する各国の規制動向はさまざまです。AI関連サービスを提供する日本企業は、刻々と変化する各国の規制動向を把握し、適切な対応をとることが求められています。なお、サービスが主として日本国内向けのものであっても、インターネットを介して容易に国境を越えた役務提供がなされる可能性があるため、海外の法令が適用されることがあり得る点には留意が必要です。そのため、企業としては、幅広く各国の最新の規制動向を把握し、法令の適用範囲・義務・罰則についての情報を調査した上、適切な対策を講じていく必要があります。
具体的には、以下のような点をあらかじめ調査・検討しておくことが重要です。
また、法規制だけでなく、AIに関する技術の進歩も日進月歩です。AIを企業のサービスや業務効率化に組み込むにあたっては、AIの導入や定着支援、AI用のデータ作成などにおいて最新動向を踏まえた専門的な知見も必要となります。
AIを利活用する企業としては、法律やAIの専門家などにも相談の上、具体的にどのような対応を進めるべきかを決めていくのが良いでしょう。
AIを活用することによって自然言語処理や映像解析、精度の高い予測シミュレーションができるようになります。生成AIの導入や構築を支援するサービス、AIを搭載した実用的なサービスをご紹介します。
条件に該当するページがございません