責任あるAIプログラムの設計は、このチェックリストから始めよう
HBR Staff using AI
サマリー:多くの企業がAI導入を急ぐ中、AIの倫理面におけるリスクを管理する全社的な責任あるAI(RAI)プログラムの重要性が増している。部分的なRAI対応では非効率やリスク拡大を招き、結果的にイノベーションが鈍化する。全... もっと見る社的なRAIプログラムの成功には、実施前に準備を徹底することが重要であり、筆者らはチェックリストを活用した慎重な計画を推奨する。 閉じる

イノベーションを鈍化させない

 多くの企業はAIの導入にリソースを投じる中で、広く知られているAIの倫理リスク、規制リスク、法的リスクを管理するための戦略が必要であることを認識する。

 責任ある(レスポンシブル)AIのプログラム(略してRAIプログラム)は、特定のAIソリューションとその管理を担うチームにとってのガードレールとなるだけでなく、AIの大規模実装を可能にする全社的な方針、ガバナンス体制、役割と責任、プロセスなどを規定するものでもある。

 筆者らはヘルスケア、製薬、保険、eコマース、食品・飲料、鉱業などさまざまな業界のフォーチュン500を対象に、RAIプログラム(「AI倫理」「AI倫理リスク」「AIガバナンス」プログラムと呼ばれることもある)の設計と実施を支援してきた。その過程で、あるパターンに気づいた。企業はRAIプログラムの設計を完了する前に、実施を急ぐのだ。

 その結果は目に見えている。AIの倫理リスク、レピュテーションリスク、法的リスクを管理する取り組みは非効率で拡大しにくいものとなり、リソースが浪費され、イノベーションが鈍化するのである。

 なぜこうなるのかは理解できる。リーダーはRAIプログラムにリソースを投じる準備が整う前に、AIが想定用途でそもそも機能するのかを知りたがり、RAIを後回しにしてしまうのだ。車が動くかどうかわからないのに、シートベルトに投資したいと思う人はいない。

 その後、一部のAIソリューションが実際に機能し、本当に投資利益が得られそうだとわかる頃には、後回しにしていたリスクが喫緊の問題となっている。リーダーはRAIプログラムの効率性と効果を十分に熟慮しないまま、実施を急ぐ。彼らの多くは強固なRAIプログラムのあり方を単純に知らないため、担当チームは往々にして場当たり的な対応を余儀なくされる。

 これを解決するための一見合理的に思える方法の一つは、実装予定の特定のAIソリューションのみを対象にした、いわばミニRAIプログラムを立ち上げることだ。使用方法、リスク評価、測定指標などを規定するRAIポリシーが、個々のユースケースやソリューションに特化して設けられている場合がある。これは応急処置としてはよいが、次第に不便で非効率となり、無視されるようになる。遅くともその時点で、全社的なRAIプログラムの設計と実施が不可欠となる。

 リーダーが正しいスタートを切れるよう支援するために、筆者らは一連の質問事項を提案したい。これらは、自社が全社的RAIプログラムを実施し、拡大し、維持する準備が整っているかどうかを判断するためのチェックリストとして機能する。質問のすべてに「はい」と答えられるのであれば、実施態勢が整っている可能性が高い。