3. ユーザーを知る

 透明性は、信頼を築いて維持するためには常に重要であり、特別にセンシティブな用途においてはいっそう不可欠だ。

 公正な意思決定プロセスがユーザーにとって最も重要となる状況や、何らかの形で手続きの公正さが要求される状況では、説明可能性を優先することが妥当かもしれない。たとえデータがブラックボックス型のアプローチに適しているとしても、あるいは説明可能性が低いモデルのほうがわずかに高精度であることが判明したとしても、である。

 たとえば雇用、移植用臓器の割り当て、法的決定などの分野では、単純でルールに則ったホワイトボックス型AIシステムを選ぶことで、組織とユーザー双方のリスクが減る。

 過去の失敗を通じてこれらのリスクを知ったリーダーは多い。2015年にアマゾン・ドットコムは、採用候補者を自動で選別する自社のシステムが、女性のソフトウェア開発者に偏見を持っていることを発見した。一方、オランダのAIによる福祉詐欺検出ツールは、批判者から「巨大で不透明なブラックホール」と非難され、2018年に廃止された。

4. 組織を知る

 ホワイトボックス型とブラックボックス型のAIをめぐる組織の選択は、AIを活用する準備が組織にどれほど整っているかにも左右される。

 デジタル面で発展途上にあり、AIに対する従業員の信頼や理解が低い傾向にある組織は、複雑なソリューションに進む前に、まずはより単純なモデルから始めるのが最善かもしれない。誰でも容易に理解できるホワイトボックスモデルを導入し、それらのツールの使用に従業員が慣れてきた段階で、初めてブラックボックスモデルの選択を検討するのが一般的だ。

 一例として、筆者らが協働したグローバル規模の飲料会社は、従業員の日々のワークフローの最適化を支援する単純なホワイトボックス型のAIシステムを導入した。このシステムは、どの製品を販売促進すべきか、どの製品をどの程度補充すべきかといった、限定的な推奨情報を提供した。

 その後、組織がAIの使用に慣れて信頼を深めていくと、マネジャー陣は、より複雑なブラックボックス型の選択肢がいずれかの用途で優位性を発揮しうるかどうかテストを始めた。

5. 規制を知る

 一部の分野では、説明可能性は「あれば望ましい」ものではなく、法的な必要条件かもしれない。

 たとえば、米国の信用機会平等法は金融機関に対し、ローンの審査が通らない理由を申請者に説明できるよう義務づけている。同様に、欧州の一般データ保護規則(GDPR)は雇用主に対し、採用候補者のデータが採用判断でどのように使われたのかを説明できるようにすべきとしている。

 組織がAIモデルによる決定について説明できるよう、法律で義務づけられている場合、ホワイトボックスモデルのみが選択肢となる。

6. 説明不可能性を説明する

 最後に、ブラックボックスモデルのほうが間違いなく高精度で(筆者らの研究でテストしたデータセットのうち30%が該当)、かつ規制、組織、特定ユーザーに関する懸念事項に照らしても許容されるという状況は当然ある。

 たとえば、医療診断用のコンピュータビジョン、不正検出、貨物管理などのアプリケーションは、ブラックボックスモデルによって大きな恩恵を受け、法的ハードルや物流面のハードルにも比較的対処しやすい。

 こうしたケースで組織が不透明なAIモデルの導入に踏み切るのであれば、説明可能性の欠如に伴う信頼と安全へのリスクに対処するための措置を講じるべきである。

 場合によっては、ブラックボックスモデルによる決定のメカニズムをおおよそ明らかにするために、説明可能なホワイトボックス型の代理モデルを構築することもできる。たとえその説明が完全に正確または網羅的ではなくても、信頼を築き、偏見を減らし、導入を促進するためには大いに役立ちうる。

 加えて、モデルへの理解が(たとえ完全でなくても)深まることで、開発者はモデルをさらに改良し、ビジネスとエンドユーザーへの付加価値を増やすことができるようになる。

 一方、モデルによる決定の背後にある理由について、組織が理解できることは実際にほとんどない場合もある。おおよその説明さえ不可能であっても、リーダーはモデルに関する社内外への説明において、透明性を優先し、リスクを率直に認め、対処に努めることはできる。

* * *

 結局のところAIの導入に関しては、どのような場合にも通用する方法というものはない。すべての新しいテクノロジーにはリスクが付き物であり、リスクと潜在的恩恵のバランスをどう取るかの選択は、個々のビジネスの状況とデータに左右される。

 とはいえ、単純で解釈可能なAIモデルは、ブラックボックスモデルと同程度にうまく機能する場合が多いことを筆者らの研究は実証している。それによってユーザーの信頼が損なわれることも、決定が隠れたバイアスの影響を受けることもなくである。


謝辞:ガウラブ・ジャハ、ソフィー・ゴーサルズの協力に感謝したい。


"AI Can Be Both Accurate and Transparent," HBR.org, May 12, 2023.