企業の信頼を揺るがす、アルゴリズミック・バイアス

 今、AIは急速にさまざまなビジネス領域に浸透しており、その分、リスクも拡大している。リスクマネジメントをAI開発者に丸投げするやり方はもはや限界で、組織全体の問題として向き合わざるを得なくなっているのだ。

 こうした問題意識の下、AI指針を策定・発表する企業も増えているが、その大半は、具体的な手順や方策まで踏み込まない、いわゆるスローガンにとどまっている。技術の進展や普及のスピードに比べれば、後手に回っていると言わざるを得ない。

 もちろん、ビジネスリーダーの多くはそれを十分に承知しつつ、具体的な方法論を確立しあぐねているのが実情だろう。アクセンチュアが実施した調査によれば、グローバル企業の経営層の約6割が「デジタル時代におけるビジネスで競争優位を保つにはAIの導入が必要」とする一方で、「AIによる『意図しない結果』について十分に理解できていない」との回答も45%に上る。また、63%が「AIシステムの監視が重要」と考えているものの、その大部分が「どう監視してよいかわからない」あるいは「自身の監視方法が正しいかどうか確信が持てない」と答えている。

 新しいリスクには経験則が通用しない、故に対策が分からない、と彼らは言う。しかし、リスクはすでに顕在化しており、猶予はない。この足踏み状態から脱するためには、構造的な理解に基づいた「AIガバナンス」の視点を持つことが重要だ。

 そもそも、多種多様なテクノロジーを複雑に組み合わせた技術はエラーが起きやすい。AIの場合なら、どんなデータをインプットするか、機械学習や深層学習をどうモデリングするか、そしてそこから得られたアウトプットをどう運用していくか──という場面ごとに異なるバイアスが入り込む余地がある。こうした「アルゴリズミック・バイアス(図表1)」が重なり合うと、企業の信頼を揺るがす重大な結果を引き起こしかねないのだ。

 例えば、金融AIで与信限度額の男女不平等が発生したり、医療AIで特定の属性の患者だけ十分な医療サービスが受けられなかったり、という事態は実際に発生している。