AI TRiSMとは? AIと共存していく未来のために必要な4つの要素

2024年3月6日掲載

AI TRiSM,AI TRiSMとは,エーアイトリズムとは

この記事では、セキュリティ分野におけるキーワードや注目を集めている用語についての基礎知識を深めていただくことを目的に、概要やポイントなどを分かりやすく解説しています。今回のテーマはAIに関連するセキュリティ用語「AI TRiSM(エーアイトリズム)」についてです。

目次

本記事を監修いただいた方のご紹介

CISO,なすしんじ,CISO 那須

那須 慎二 氏

株式会社CISO
代表取締役

https://ciso.co.jp/

 

中堅中小企業向けにセキュリティの支援を行う株式会社CISO 代表取締役。人の心根を良くすることで「セキュリティ」のことを考える必要のない世界の実現を目指し、独自のセキュリティサービス(特許取得)を提供。業界問わず幅広く講演・執筆多数。近著に「知識ゼロでもだいじょうぶ withコロナ時代のためのセキュリティの新常識(ソシム)」あり。

AI TRiSMとは?

AI TRiSM(エーアイトリズム)=Artificial Intelligence (AI) Trust, Risk and Security Managementとは、「Trust=信頼性」、「Risk=リスク」、「Security Management=セキュリティ・マネジメント」の頭文字をとった造語で、米国の調査会社Gartner社によって提唱されたフレームワークです。セキュリティ対策やプライバシー、倫理面など、AIの開発・活用における懸念事項に焦点を当てているAI TRiSMの概念は欧米を中心に発展しており、AIの信頼性を向上させ、AIの活用を最適化してより多くの価値を実現するために必要な枠組みとされています。

2023年はAI元年とも言われ、AIが大きな話題となりました。ビジネスシーンでの利用も急速に進み、実際に業務の現場で使っている、または検討を進めているという企業も多いかと思います。

AI TRiSMの考え方を提唱したGartnerでは、2026年までに約8割の企業がAIを使用すると発表している一方で、AIをビジネスで使用することですでに約4割の企業がインシデントを経験していると伝えています。このような背景から、安全にAIを活用できる環境を整えるために、AI TRiSMの重要性が話題になっているのです。

AI TRiSMを構成する4つの要素

AI TRiSMは4つの要素で構成されています。これらの要素を踏まえることで、AIが持つ可能性を最大限に引き出し、信頼性と安全性を確保することができるとされています。

説明可能性:AIがどのようにして結論や予測を導き出したのかを明確に理解できることを指します。ユーザがAIのアウトプットに対する説明や根拠を理解できることは、AIの信頼性と信頼性を高め、結果への納得感を得る上で重要となります。

ModelOps(モデル運用):開発されたAIモデルが効率的に運用・更新を行い、所定のライフサイクル(開発、デプロイメント、モニタリング、メンテナンス)を適切に進めるための管理手法を指します。ModelOpsの目的は、AIシステムのビジネス価値を最大化することです。

AIセキュリティ:AIセキュリティは、AIシステムとその扱うデータを外部からの攻撃から守るための対策を指します。さまざまな外部攻撃やデータの不正利用からAIを保護するため、セキュリティ対策が重要となります。

プライバシー:AIは大量のデータを取り扱い、これらのデータの中には個人のプライバシーを侵害する可能性のある情報も含まれることがあります。AIシステムは、個人データを適切に取り扱い、プライバシーを保護することが求められます。

 

AIのビジネス利用における課題

こうしたAI TRiSMに取り組むには、AIをビジネスで活用する上でどんなリスクがあるのかを理解しておく必要があります。

◆AI×セキュリティ

AIを利用する、しないに関わらず、IT技術を利用する場合は常に情報漏えいのリスクがあることを前提に、セキュリティ対策を講じる必要があります。中でもAIを活用する場合は、入力情報が、他人の利用する汎用的な学習に利用される可能性があるため、より一層の注意が必要です。AIを利用する際に入力した情報が、他人の利用するAIの学習に使われる可能性があります。機密性が高いデータ、個人を特定するような情報、重要なビジネスデータなどは入力しないよう徹底することが重要です。

また、入力した情報が利用するAIサービスを提供する事業者のログに情報が残った場合、事業者内で不正行為が行われた場合や、外部からの攻撃によって情報が漏れる可能性があります。特に、誰でも使えるオープンなAIを利用する場合、一度でも情報が取り込まれてしまうとAIの学習に取り入れられてしまい、二度と取り戻すことができない可能性があることを前提に、機密情報や個人情報の入力は絶対に行わないようにしましょう。会社として利用する場合は、AIによる学習が外部への情報漏えいに繋がらない状態かを事前に確認することが重要です。

さらに、内部不正による情報漏えいにも気を配る必要があります。悪意のある従業員が、自己利益や外部からの協力の持ち掛けにより、AIシステムへ不正アクセスし、モデルやデータを盗むことで、情報漏えいに繋がる恐れが考えられます。対策としては、内部不正を検知・防御するソリューションの導入や、日頃からのコンプライアンス研修を徹底することが大切です。

◆AI×プライバシー

AIとプライバシー保護は切り離せない関係にあります。AIは膨大なデータを学習しているため、データの中には潜在的に個人を特定可能な情報も含まれる可能性があります。データの匿名化やプライバシー保護のための適切なデータ処理も重要な課題となります。

また、生成AIでは文書の出力のみならず、画像生成も可能な時代になりましたが、生成AIサービスが「商用利用可」であっても、そのサービスを利用して出力・作成された文章や画像の全てがビジネスで利用できるわけではない、ということを理解しておくことが大切です。

◆AI×ハルシネーション

AI利用における「ハルシネーション(Hallucination)=幻覚」とは、存在しない情報やデータを生成し、もっともらしいウソの情報が出力されることです。人間が、経験したことのない事象を現実と錯覚する"幻覚"の概念に似ているため、このように呼ばれています。

通常、AIは多くの学習データを基に新しいデータを分類または予測しますが、それが過学習(Overfitting)になると、未知データに対しては精度が発揮できず、学習データに存在しない特徴を出力するリスクがあるのです。それぞれの利用者がAIの出力内容に誤りがないかを確認する必要があるのが現実です。そのため、AIを利用する側にも出力内容の正しさを判断するための一定の知識が求められます。また、管理側も、利用する従業員に対し、ガイドラインを設定するなど、リスクマネジメントが必要です。

AI元年を振り返りつつAIと共存する未来を考える

2023年は多くの場所でAIがトレンドワードとなりましたが、昨秋に開催したSoftBank World 2023でも、複数の講演や展示ブースで「AI」がテーマとして掲げられ、多くの注目を集めました。

ソフトバンクでは、セキュアな環境下で日常的にAIチャットが利用されており、業務が飛躍的に効率化しています。このSoftBank World 2023のイベント運営においても、イベントキャッチコピーや、イベントを象徴するキービジュアルの制作に生成AIが使われました。(関連ブログはこちらから:キャッチコピーの制作,キービジュアルの制作

そんな「AI元年」と言われた1年が過ぎ、新たに2024年を迎えた今、今後も進化していくであろうAIのビジネス活用においてどのような考え方でAIと付き合い、AIと共存していくか。そしてビジネス利用におけるリスクをどう低減させるべきかが重要な課題となっていることからAI TRiSMの重要性が増しているのです。

AI TRiSMの目的は、企業がAIを安全かつ信頼できる状態で利用することを確保することです。そのために企業は、AI TRiSMを経営戦略の一部と理解し、業務全体でAIを活用できる環境作りに取り組む必要があるのです。

ソフトバンクでは、さまざまなソリューションで、お客さまの業務課題を解決します。安全かつ安心してAIをビジネスで活用するために、ぜひ資料や動画も参考になさってください。

ソフトバンクの生成AIソリューション

ビジネスの効率性と競争力をAIの新たなアイデアと創造的な解決策で向上させる生成AI(ジェネレーティブAI)とは?

ソフトバンクの社内での活用事例動画をご覧いただけます。

関連セミナー・イベント

条件に該当するページがございません

おすすめの記事

条件に該当するページがございません