ブロックチェーンで実現する「責任あるAI」の開発
HBR Staff
サマリー:AIの普及が進むなか、そのバイアスや信頼性が大きな課題となっている。企業はAIの解釈可能性、監査可能性、強制可能性を確保し、顧客の信頼を築くことが求められる。FICOはブロックチェーンを活用することで、AIの説... もっと見る明責任を強化し、安全かつ透明性の高いシステムの構築を推進している。本稿では、その導入事例と他社がこのアプローチを活用する方法について紹介する。 閉じる

ブロックチェーンでAIモデルの信頼性を担保する

 驚くほど短期間のうちに、さまざまな業界の組織がAIを導入し、人々の日常生活に影響を及ぼす決定を下すようになった。AIは「私たちのバイアスと道徳的欠陥を映し返す鏡」と特徴づけられるため、この決定は時として不幸な、さらには悲劇的な過ちにさえつながることがある。

 そしてバイアスは、AIが信頼性の問題を抱えて「ブラックボックス」と見なされる数多くの理由の一つにすぎない。2023年のピュー・リサーチセンターの調査によれば、米国人の52%は日常生活におけるAIに興奮よりも懸念を抱いており、懸念よりも興奮を感じていると答えた人はわずか10%であった。

 AIの技術的信頼性が、AI自体によって証明される必要があるのは明らかだ。AIを使う企業はその実現に向けて、分析モデルによる決定の解釈可能性、監査可能性、強制可能性を確保しなければならない。解釈可能性によって、技術が理解できるようになる。監査可能性によって、説明責任が果たせる。強制可能性によって疑念が軽減され、信頼が後に残る。

 組織はAIへの投資から真のビジネス上の利益を得たければ、AIに対する顧客の信頼を獲得しなければならない。顧客や規制当局、その他の適切な関係者から寄せられるこの技術の仕組みに関する疑問に答えられない限り、AIに対する社会全体の不信感は解消できない。

 ブロックチェーンに基づく説明責任を用いることで、説明責任と強制可能性の確保に向け、運用可能な道が開かれる。

 筆者の一人が所属するFICO(ファイコ:フェア・アイザック・コーポレーション)では、消費者および金融業界全体のAIに対する信頼を構築するためにブロックチェーン技術を用いている。ブロックチェーンはAIモデル開発のあらゆる側面に関する変更不可能な記録を作成し、実行されるすべてのアクションが「責任あるAI」に関する企業の要件と標準に準拠するよう保証する。

 AIモデルを管理するためのブロックチェーンシステムは、データサイエンティストへの不信感を意味するものではなく、「信頼は個人の問題ではない」ことを示すものである。人生における重要な決定に契約が伴うのには、理由があるのだ。ブロックチェーンは非難の対象を特定する役割を果たすのではなく、誰もが誠実で、効率的で、安全で、標準に準拠している状態を維持するよう設計されている。適切なガバナンスと説明責任の体制が整っていれば、AIのイノベーションを発展させるための安全かつ広く開かれた環境が構築できる。

 本稿では、FICOがどのようにブロックチェーンベースのAIモデル開発管理の導入に至ったのか、それがビジネスにどう寄与するのか、そして他社がこのアプローチを導入して恩恵を得るにはどうすればよいのかを、ケーススタディで提示する。

ブロックチェーンとAIの出会い

 FICOでAIと分析のイノベーションを担うデータサイエンスチームは2021年、モデル開発のガバナンスにブロックチェーンを活用し始め、以降この取り組みは明確な価値をもたらしてきた。同チームはFICOのソフトウェアプラットフォーム向けに、不正検知やクレジットカード管理ソリューションをはじめとするコア技術を提供している。FICOスコア(消費者の信用スコア)向けのアナリティクスを開発する分析部門とは別の組織だ。

 このアプローチは、AIと分析のイノベーションを市場に投入するまでの時間の短縮につながるだけでなく、新しいモデルの実運用の維持にも役立っている。ブロックチェーンによって、サポートに関する問題とモデルのリコールが90%以上削減された。急速に増えていくモデル開発の詳細を管理するプロセスを、ブロックチェーンで自動化したことによる成果だ。