IBM基礎研究所発のこうした取り組みは、IBMの顧客にとっても革新的なビジネスソリューションを生み出してきた。

 2018年、IBMは「ワトソン・オープンスケール」をリリースした。これは、企業がAIに基づくソリューションを構築し、AIのバイアスを検知し、マネジメントし、緩和するのを助けるための有料サービスである。

 このような手立ては確かに有益だが、それだけでは、AIシステムを導入する際に、意図しないバイアスが入り込むのを防ぐことができない。システム開発者は、みずからがつくるモデルがどのようなバイアスを持っているかに気づいてすらいない場合も多い。また、個別の状況ごとに何が公正で妥当かを判断するだけの知識を持っていない場合もある。

 企業がこの問題に対処するために有効な――そして、そのために企業が重視すべき――取り組みがいくつかある。

・デザイナー、デベロッパー、マネジャー向けの教育・啓蒙活動に資源を割く。

・チームのメンバー構成にダイバーシティ(多様性)を確保する。

・導入しようとしているAIシステムに関連して何を公正と見なすべきかについて、関連する社会組織や影響を受けるコミュニティに意見を求める。また、いわゆるインターセクショナリティにまつわる問題の解決策についても、これらの団体やコミュニティに相談すべきだ。インターセクショナリティとは、ジェンダー、年齢、人種など、複数の側面でバイアスによって不利な立場に置かれる状況を言う。そのようなケースでは、1つのバイアスを緩和しようとすると、別のバイアスが深刻化する場合もあるので、対応が難しい。

・システム開発者が開発過程のAIシステムを適切に修正し続けられるように、そのための方法論とガバナンスの枠組みを明確化する。通常のAI開発のプロセスに、新しいステップ(たとえば、バイアスの検知と緩和)を加えるべきだ。また、そのようなステップを取り入れるための方法論を明確に示し、そうした方法論をできるだけ簡単に採用できるように努力を払う必要がある。そして、AIシステムの評価を行い、採用を促進・徹底し、導入の規模を拡大させていくために、ガバナンスの枠組みも用いなくてはならない。

・透明性と説明可能性に関するツールを構築し、バイアスの存在を可視化し、そのバイアスがAIシステムの決定にどのような影響を及ぼすかを明らかにする。

 要するに、多くの利害関係者が参加する多角的なアプローチを実践してはじめて、公正性、透明性、信頼性などの価値を重んじる形で――これらの価値をAIの創造とAI関連の意思決定の中核に据えるという形で――AIのバイアスを真に是正することができる。

 それにより、私たち自身のバイアスを再現もしくは増幅するようなAIを生み出さずに済むだけでなく、AIを使って人間の公正性を高めることも可能になる。

 忘れてはならない。私たちが目指すべき究極の目標は、AIを進歩させることそのものではなく、AIなどのテクノロジーを使って、人間とその価値観を進歩させることなのである。


HBR.org原文:How IBM Is Working Toward a Fairer AI, November 05, 2020.


■こちらの記事もおすすめします
アルゴリズムが経済的不平等の拡大に拍車をかける
機械学習は取締役の選出プロセスをいかに改善できるか
テクノロジー企業の「倫理オーナー」が抱えるジレンマ