「責任あるAI」を実現するための4つのアプローチ ーアクセンチュア 保科氏、鈴木氏
「責任あるAI」という言葉がある。
これは、「AIの設計、開発、活用において企業が社会的責任をどのように実現するか」という意味だ。
この、「責任あるAI」についてアクセンチュアが勉強会を開催した。
勉強会では、「責任あるAI」が求められる背景や、AI活用においてどのようなリスクが存在し、どのような対策を取るべきか、といった解説が行われた。
そこで、この記事では、解説された内容を紹介する。AIを活用しようとする企業の方にぜひ読んでもらいたい。
目次
AIが及ぼす社会的影響
現在AIの市場は、高い成長率を保持しており、今後も安定して成長していく分野だと期待されている。
企業では、RPAを活用した業務プロセスの自動化やモノ、コトに対する人の意思決定をAIが支援するようになってきた。さらに、医療、人事、社会インフラといった社会的インパクトが大きい領域でのAI活用も進んできている。
こうした状況からか、AIが及ぼす影響をよく考えて実装をしていかなくてはならないという意識が世界的に高くなっている。
アクセンチュア株式会社 ビジネス コンサルティング本部 AIグループ日本統括 AIセンター長 保科 学世氏(以下、保科氏)は、AIがもたらすリスクとして、「人種間の不平等」を挙げた。
実際、警察の捜査において、顔認証技術の誤判断により、黒人男性が誤認逮捕されるといった事件が起きたという。
この事件において、AIのリスクを回避するために、ある大手企業が顔認識市場から撤退するという事態が生じたのだ。
現在、米国を中心に人種差別抗議運動「Black Lives Matter(以下、BLM)」が広がっているが、このBLMはAIの在り方にも影響を及ぼしているとのことだ。
そうした経緯から、AI活用のガイドライン策定の動きが世界でも進んでいるという。
保科氏は、「日本でも、ガイドライン策定の動きは出てきており、企業がどのようにAIを開発し利用するのかというところを真剣に考え具体的な対策を打たねばならないタイミングに来ている」と述べた。
「責任あるAI」を実現するための4つのアプローチ
こう言った社会背景を受けて、アクセンチュアは、「責任あるAI」は、顧客や社会に対してAIの公平性、透明性を担保するアプローチと定義している。
「責任あるAI」の実現には、AIの開発や活用における行動指針として「信用できること(Trustworthy)」、「信頼できること(Reliable)」、「理解できること(Understandable)」、「安全が保たれること(Secure)」、「共に学び合うこと(Teachable)」の頭文字をとった「TRUST」に則り、「技術」、「ブランド」、「ガバナンス」、「組織・人材」の4つのアプローチを実践し、公平性、透明性を担保することが重要だとした。
以下、4つのアプローチについて解説していく。
責任あるAIのアプローチ1: 技術
まず、ビジネス コンサルティング本部 AIグループ シニア・マネジャー 鈴木 博和氏(以下、鈴木氏)は、「責任あるAI」の第1ステップとして「技術」を挙げた。
AIを開発する前処理の工程として、「データ収集」、「データクレンジング」、「特徴量」の選定を行い「訓練データ」を作成する。その後、学習アルゴリズムを構築し、訓練データを使用した学習でできたAIモデルに対して評価を行う。この一連のサイクルを回すことによりAIを開発する。
一方、現在、AIの開発工程において、自動化が進んできているわけだが、AIの開発を行う工程においては人間の意思決定が重要である。
人間の意思決定が必要な状況として、例えば「データの取り扱い」だけ見ても以下の人間による意思決定が必要になる。
つまり、「AIを開発する上で、人間の意思決定が必要である以上は、人間の持つバイアスや思い込みがAIに混入しうる」というのだ。
例えば、チャットボットが学習を続ける中で、差別的な発言をするようになったという事例がある。
この現象は、「オペレーションバイアス」と呼ばれている。
一般的にAIは、フィードバック・データを使い、動作の改善をしていくわけだが、フィードバックのデータ自体にバイアスがあると意図しない動作をする場合がある。
この他にも、開発者が正しいと思っている仮説や結果を重視するというバイアスがあり、これを「確証バイアス」と呼んでいる。「確証バイアス」がアルゴリズムの設計に影響を及ぼすこともあり、一番影響が大きいものは、「社会的偏見」とされている。
これは、「AIの学習に活用するデータに、人種的・性別的なバイアスが含まれていると、AIに悪い影響を及ぼすことがある」ということで問題視されているものだ。
「アルゴリズム・アセスメント」の実施
前述した通り、AIの開発では、「サンプリングバイアス」や、「確証バイアス」など、様々なリスクが潜在している。
そこで、アクセンチュアは、AIを活用した意思決定において、「アルゴリズム・アセスメント」を実施することにより、AIの信頼性を確立することを推奨しているという。
この「アルゴリズム・アセスメント」には「取り込み」、「アセスメントプロセス」、「成果報告」の3つのステップが重要であるとしている。
Step1. 取り込み
取り込みでは、AIのユースケースに対して優先度を付けるステップだ。優先度付けは、必ずしも収益や利益の観点で優先度をつけるのではなく、ビジネスへの影響やリスクの高いものから行う。
したがって、ユースケースの理解が非常に重要になる。ユースケースを理解するにあたって研究者や経営者だけではなく、AIによって影響を受ける人たちを巻き込む必要がある。
Step2. アセスメントプロセス
アセスメント・プロセスのステップでは、技術的な評価をする。この評価は大きく分けると「定量評価」と「定性評価」の2つがある。
「定量評価」では、AIの性能の公平性や透明性を数値的に評価する。
そして、「定性評価」では、各ステークホルダーに対してインタビューやアンケートを通して公平性を評価するのだ。
こうしたアセスメントのプロセスを通してAIシステムの潜在的なリスクを表面化させることで、意図しない結果に対しての改善策を提案するのが「アセスメント・プロセス」なのだ。
Step3. 成果報告
最後は、アセスメントプロセスで出た結果を成果報告としてまとめレポーティングを行うステップだ。
レポーティングを行う対象は、技術的なステークホルダーや品質的なステークホルダーなど様々な人がいるので、どのような要望に答えていくのかが重要になる。
ステークフォルダー間でお互いに理解が進み、統一見解として意思疎通を行うためには、必ずしも専門用語を並べたレポーティングを行うのではなく、全てのステークホルダーにわかりやすいレポートを作成していく必要があるとした。
「アルゴリズムアセスメント」の活用事例
ここで、アルゴリズムアセスメントの活用事例として、「アライドアイリッシュ銀行」が紹介された。
この事例では、意思決定に使用するAIモデルの「公平性」が問題になっており、そこに「アセスメント」を組み込むことを検討していた。
アルゴリズムアセスメントのツールキットを提供し、AIモデルの公平性の向上やバイアスの軽減のためのアクション評価を実施したのだという。
そのことにより、データやAIモデルの評価を公平性の観点から深く理解できるようになった。さらに、データサイエンティストだけではなく経営層にも理解できるようになったという。
併せて、モデル構築プロセスにおいての意思決定も改善できたという結果がでたということだ。
責任あるAIのアプローチ2: ブランド
責任あるAIのアプローチの2つ目である「ブランド」では、長期的な競争力とビジネスレジリエンスを確保するために、ステークホルダーの興味・関心をAIを活用した中核ビジネスにも反映させる。
近年、ESGの観点は非常に重要になっている。ここにAIをどう絡めるのかについては、未だ日本企業でも進んでいないところが多い。特に社会的責任においては、AIをどのように活用し貢献するかがポイントになる。
「責任あるAI」が実際にできていないと、問題が起こった時に、企業ブランドの毀損や消費者の離反につながりかねない。
「環境」、「ソーシャル」、「ガバナンス」の観点で見る問題
そこで、ブランドに関して「環境」、「ソーシャル」、「ガバナンス」という各々の観点で、どのような問題があるかを以下にまとめた。
教師データの作成に関しては、ギグワーカー(ネットを通じて仕事を請け負う人)に委託を行う企業が世界的に多く、近年では、ギグワーカーの賃金や労働の条件待遇が問題視されている。
したがって、AIの開発にも「フェアトレードの概念が必要」との声もあり、社外のAIのサプライチェーンにおいても問題がないかを考えておく必要があるのだ。
そのために鈴木氏は、「AIの開発、展開、利用においてESGにも注視しコンプライアンス、働き方、環境への影響、社会的意義を常に自問自答し、その対応を実践する必要があり、実践した内容を発信していくことで、企業のブランド価値の維持向上が期待できる」とした。
責任あるAIのアプローチ3: ガバナンス
責任あるAIのアプローチとしての「ガバナンス」は、企業全体でAIのリスクや倫理判断、AI戦略を実行していくためのガバナンス体制の構築である。
ガバナンスの必要性として、AIを全社展開していく場合、健全な企業経営を目指した企業自身によるAIのモニタリング体制を遂行しなければ業績の低下に直結すると考える経営者が非常に増えているという。
しかし、「AIシステムのモニタリングが重要だと認識はしているがその方法がわからない」と答えたリーダーは全体の63%にも及んでいる。
また、全体の24%が「一貫性のない結果、透明性の欠如、誤った結果のためにAIシステムの全面的な見直しを余儀なくされている状況だ」という結果が出ている。
これは、AIを全社展開していくにあたっては、部門単位でAIを管理するのではなく「全社レベルでのガバナンス体制」が必要だということを示唆している。
ガバナンスを実践するための6つのフェーズ
また、アクセンチュアは、ガバナンスを実践するためのステップとして6つのフェーズを想定しているという。
フェーズ1: 「倫理委員会」
フェーズ1では、倫理委員会を設置する。倫理委員会においては、AIの専門家だけでなく人文系や法律の専門家などの専門家を集め必要な助言、承認を行う組織を構築する必要がある。
フェーズ2: 「経営トップのコミットメント」
フェーズ2では、「責任あるAI」を経営層が理解し、社内、組織での実践をサポートする体制を作る。
フェーズ3: 「トレーニング&コミュニケーション」
フェーズ3では、社内の全ての従業員に対して「責任あるAI」の教育を行う。
フェーズ4: 「レッドチームと消防隊員」
フェーズ4では、組織にレッドチームと消防隊員を配置する。
レッドチームとは、元々セキュリティ分野の用語である。AIのポジティブな面だけではなく、ネガティブな面も考慮して倫理的な問題の発生を事前に防ぐ役割である。消防隊員は、問題という火事が起きた際に、火事の原因特定や適切な初期消火の方法を学び、実践する役割である。この訓練を受けることにより、従業員の誰もが担当できるものである。
フェーズ5: 「ポジティブな影響をもたらす倫理指標」
フェーズ5では、ビジネスの価値と倫理指標をうまく整合させていく。
フェーズ6: 「問題提起できる環境」
フェーズ6では、問題が起こった時に問題提起できる環境を整える。企業組織として、声が上がった時や問題があった時に注集できる勇気があるかどうかが重要である。
責任あるAIのアプローチ4: 組織・人材
最後のアプローチは、責任あるAIのアプローチとして組織・人材の育成を行い、「責任あるAI」の文化を醸成するということだ。
「責任あるAI」の文化を醸成するためには研修が必要である。研修は、経営層、ビジネスメンバー、開発メンバーの課題に対して行うべきだ。
各ポジションごとの課題
経営層の課題に対しては、長期的な競争力、ビジネスレジリエンスを実現するために「責任あるAI」を企業戦略に組み込んでいく必要があるが、具体的なアプローチの方法がわからないという課題がある。そういった課題に対して、「責任あるAI」に対しての基礎知識だけではなく、ガバナンスのルールやリスク軽減のための考え方などを学ぶ必要がある。
ビジネスメンバーの課題に対しては、AIに潜在的に存在するリスクが把握できていないというケースがある。そのような場合には問題の発見や対応が遅れ、企業活動におけるリスク要因になる可能性がある。実際にどのようなバイアスがあるのか、どのような形でアセスメントを行うのかを実践的に学ぶ必要がある。
開発メンバーの課題に対しては、より技術的な観点での研修が必要である。AIの開発メンバーは技術的な進歩性や確信性を重視する傾向がある。
前述した通り、AIの開発プロセスには、人間のバイアスが混入してしまうリスクを普段から意識してAIを開発していくので、その工程を学ぶ必要がある。
したがって研修のメニューとしては、モデルにかかるバイアスの識別方法や、モデルの解釈の可能性を高めるための方法についての研修を実施する必要があるのだ。
最後に、鈴木氏は「経営層、ビジネスメンバー、開発メンバーのポジションに応じた研修を実施していくことにより『責任あるAI』が企業の文化や組織の風土につながるのだ」とした。
中川 誠大IoTに関する様々な情報を取材し、皆様にお届けいたします。
現在、デジタルをビジネスに取り込むことで生まれる価値について研究中。特にAIの分野に興味あり。