公平で、説明可能なAIって何?

2023年5月29日掲載

governance

大手のクラウドで、以下のようなAI関連サービスをご存知でしょうか(ディープラーニングに限らず、機械学習も指して本記事内ではAIと表現します)。

  • AWS:SageMaker Clarify
  • Azure:Responsible AI dashboard
  • Google Cloud:Vertex Explainable AI
  • IBM Cloud:Watson OpenScale(watsonx.governance)

AWSのSageMakerやGoogle CloudのVertex AIなどのサービス名を聞いたことがあるという方もいるかもしれません。AIモデルを構築するサービスです。

上にあげたサービスは、SageMakerではなく、SageMaker Clarifyです。Vertex AIではなく、Vertex Explainable AIです。モデル構築サービスに対する、何か別の役割を担ったサービスとなります。AzureやIBM Cloudにもモデル構築サービスはあり、その名前を踏襲してはいませんが、AWSやGoogle Cloudと同じポジションでのサービスとして、上のサービスが存在しています。

実はこれは、AIモデルのバイアスを検出したり、予測結果を説明するためのサービスとなります。

本記事では、AIモデルを構築するサービスとは別のサービスと機能がどうして必要なのかを探っていきます。

この記事は
  • AIが公正であるか、説明できるとは何か、について解説します
  • サービスの使い方は解説しませんが、目的と必要性を理解できる内容となっています
  • 特定のクラウドサービスに依存せず、汎用的な知識を得られるようにしています
  • ChatGPTやOpenAIなどのGenerative(生成系)AIを利用する場合にも、応用できる考え方を身につけられます

目次

背景

AI技術が急速に進展し、企業のAI導入も増加しています。モデルの性能として正解率、適合率、再現率などの精度に注目が集まりがちですが、公平性や透明性、セキュリティ・堅牢性、安全性などの指標の重要性も認識されつつあります。

性能以外のAIガバナンスという観点も考慮しなくてはならない理由を列挙してみます。

  • 公平性:AIシステムは、開発者の、また使用されるデータのバイアスを反映する可能性があります。特定の人々やグループに対する偏見や不平等が生じることがあります。
  • 説明性(透明性):深層学習のようなアルゴリズムのパラメータの挙動を追いかけることは、複雑で難しい場合があります。だからと言って、一切説明ができない、では信頼を得られません。
  • データの質と量:大量のデータが必要であり、同時にデータは正確でなければなりません。データが偏っている場合、AIシステムが不正確な結果を生成する可能性があります。
  • セキュリティとプライバシー:個人情報が利用されないような保護が必要となるケースが出てくる場合があります。個人情報が同意のないまま吸い上げられ利活用されるかもしれません。
  • 堅牢性:不正なデータに対して、望ましくない挙動を起こすことがあります。意図的に引き起こし悪用されないようにしなければなりません。
  • 倫理問題:AIが人々の行動や決定に影響を与える場合、倫理的な問題が生じる可能性があります。例えば、自動運転車が事故を起こした場合、責任は誰にあるのかという問題が生じます。

 

他にもまだまだあるのですが本題に戻りましょう。先のAIサービスは公平性説明性(透明性)への課題を解決するために焦点を当てたサービスです。

AIに公正性と説明性が求められるのはなぜ?

公平性と、説明性に焦点をあて、もう少し詳しく見ていきましょう。

公平性

英語では、フェアネス(fairness)と言います。
悪意を持たないでモデルを構築すれば公平になるというわけではありません。バイアスが生まれる原因は大きく3つあります。

  • データの偏り
    訓練データへのラベル付けに偏りがある場合、AIの判断にも偏りが生じます。例えば、無意識にでも特定の人種や性別への評価をよくしていた、などの、アノテータの思い込みが入り込む場合があります。
  • サンプルの偏り
    訓練データが予測対象を反映していない場合に発生します。例えば、ある特定の人種や性別のデータを選択していなかった場合、その人々に対するサービス提供や意思決定が不公正になる可能性があります。
  • 学習(帰納)バイアス
    汎化したモデルが現実の対象を予測できていないことがあります。汎化の過程で少数データが過小評価される、などです。

公平であることを、誤解がないように少し補足します。
本来、バイアスがかかってはいけないデータが、予測にバイアスをかけ、公平ではなくなることを問題にしている点にご留意ください。

お金を貸せるかどうかのローン審査をする際に、収入がなく、借金がある方へは貸出判定は厳しくせざるを得ないでしょう。
意図した不公正が起きることは問題ではありません。意図しない不公平が発生することが問題です。

もう一つ例を出します。公共自治体においては、収入がなくなり、生活に困っている方へ、社会保障の役割が求められます。
データから得られる性格は一律に決まっているわけではありません。文脈によってその目的と意義を踏まえて判断することが大事になってきます。

 

説明性

英語では、XAI(Explainable AI:説明可能なAI)や、解釈可能性(Interpretability)と表現されます。

AIによる決定がどのように導かれたのかを人間が理解できなければ、AIの判断結果への信頼性を得られない可能性があります

法的責任の観点も意識しなければなりません。AIが誤った結果を導いた場合、その責任をどのように追及するかという問題があります。AIの判断であった場合でも、最終的な責任が人間にある領域では、説明責任が生まれることがあります。

具体例を出します。
AIを使った医療診断支援システムでは、患者の症状や検査データをもとに、病気の診断や治療法の提案を行うことができます。しかし、AIがどのような理由で診断や治療法を提案しているのかを理解できない場合、患者がその結果に対して信頼を持つことが難しくなります。

AIの公正性と説明性を担保する手法は

いくつか手法を紹介しますが、クラウドサービス内部で使われるアルゴリズムと一致しているわけではない点ご留意ください。またクラウドサービスごとに、できることとできないことに若干相違点がございます。

公平性

AIの公正性を担保するためには、モデルを構築する過程の、前処理、学習中、後処理の3つの段階でさまざまな手法を適用することができます。

  • 前処理
    使用するデータの収集と選択段階の処理です。
    データに偏りがある場合、そのバイアスを検出し、修正します。例えば、ある採用サイトのデータに男性が女性よりも多く含まれている場合、女性の採用率が低くなるバイアスが生じる可能性があります。そのため、データのバイアスを検出して修正します。技術例として、Disparate Impact Remover、FairGANなどがあります。
  • 学習中
    モデルの訓練アルゴリズムごとに専用の実装が必要ですので、統一的で簡易的な方法はありません。制約ベースの手法であるPrejudice Removerや、敵対的バイアスを除去するAdversarial Debiasingが組み込まれていることがあります。
  • 後処理
    できあがったモデルに関係なく適用できるメリットがありますが、使用するデータや問題の種類によって最適な手法が異なります。手段を慎重に選定する必要があります。
    Equalized Odds Postprocessing、Reject Option Classification、Calibrationなどがあります。

 

説明性

AIの予測結果を説明をするための手法についてです。

まずは、先に紹介した大手クラウドのAI系のサービスではないですが、古典的な手法を復習します。
線形回帰や決定木は、計算過程が人間にとって理解しやすく、意図しない挙動を起こす可能性も低いです。 データ数が少ない場合や、精度よりも安定性を重要視する場面においては依然として有用です。

AIに利活用される手法は下記のようなものがあります。

  • 特徴量と予測値の関係の可視化
    特徴量の値と予測値の値の関係を可視化することで、モデルの挙動を解釈する手法です。モデルの入出力 関係だけに注目するため、ブラックボックスな状態でも適用できます。特徴量の影響の相互作用を十分にとらえられない、解釈が主観的になるなどのデメリットがあります。ICE(Individual Conditional Expectation )やPDP(Partial Dependence Plot)があります。
  •  近似モデルによる説明
    Global / Local Surrogate Model
    グローバルサロゲートモデルは、元の複雑なモデルを説明可能なモデルで代替し、間接的に説明する手法です。これにより、全体的なトレンドを捉えることができるようになります。詳細な情報は失われる可能性があります。

    ローカルサロゲートモデルは各予測を説明するための手法です。ローカルサロゲートモデルでは、LIME(Local Interpretable Model-agnostic Explanations)や、SHAP(SHapley Additive exPlanations)などがあります。
  • 仮想サンプルによる説明可能性
    特徴量の値が、もし今と 違ったらどうなるかを、仮想的なサンプルを用いて挙動を追いかけるCounterfactual Explanationsや、わざと誤認識させるようなノイズを加えて挙動を理解するAdversarial Examplesなどがあります。
  • 画像データにおける説明可能性
    画像に特化した手法としては、Saliency Mapなどがあります。 画像識別において、どのピクセルが予測に影響を与えているのかを可視化する手法です。 モデルの注目箇所をヒートマップとして表すことができます。

まとめ

各クラウドのサービスの仔細には触れていませんが、AIモデルを補助する立場でのAIサービスがなぜリリースされているかご理解いただけたかと思います。

AIモデルは作成して精度を測るだけではなく、AIガバナンスの観点から公正性と説明性も求められるようになってきています。このようなサービスもぜひ利用を検討してみてはいかがでしょうか。

関連サービス

Amazon Web Services (AWS)

ソフトバンクはAWS アドバンストティアサービスパートナーです。「はじめてのAWS導入」から大規模なサービス基盤や基幹システムの構築まで、お客さまのご要望にあわせて最適なAWS環境の導入を支援します。

Microsoft Azure

Microsoft Azureは、Microsoftが提供するパブリッククラウドプラットフォームです。コンピューティングからデータ保存、アプリケーションなどのリソースを、必要な時に必要な量だけ従量課金で利用することができます。

Google Cloud

Google サービスを支える、信頼性に富んだクラウドサービスです。お客さまのニーズにあわせて利用可能なコンピューティングサービスに始まり、データから価値を導き出す情報分析や、最先端の機械学習技術が搭載されています。

IBM Cloud Watson

IBM Watsonの導入は、ソフトバンクにご相談ください。お客さまと共に課題を明確にしIBM Watsonの最適な活用方法をご提案します。

おすすめの記事

条件に該当するページがございません