責任あるAIを組織に実装する4つのステップ
HBR Staff/Jorg Greuel/Getty Images
サマリー:欧州ではAI規制法が承認されるなど、AI倫理の確立や責任あるAIを組織に組み込むことが企業における喫緊の課題となっている。しかし、これを実践に移すことは、けっして簡単ではない。そこで本稿では、筆者らが特定し... もっと見るた、責任あるAIの実践をより広範な業務上の基準に統合させるために、リーダーが取るべき4つの重要な行動(翻訳、統合、調整、普及)について解説する。 閉じる

責任あるAIを組織に組み込むためにどうすべきか

 2024年3月に欧州議会でAI規制法が承認された時、大手通信企業ドイツテレコムは自信を感じ、準備はできているという手応えがあった。同社は2018年に責任あるAIの原則を確立して以降、これらの原則をAIベースの製品やサービスの開発サイクルに組み込むように努めてきた。

「AIの規制が目前に迫っていることを見据えて、開発チームのオペレーションにこの原則を組み込むよう奨励し、後から混乱を伴う調整を強いられることを回避しようとしました。責任あるAIは、いまでは私たちのオペレーションの一部になっています」と、同社のグループコンプライアンス・企業倫理担当のマイケ・ショルツは説明する。

 残念ながら、筆者らの研究が示唆するように、こうした事前の積極的な対策は例外的であり、一般的ではない。AI倫理は多くの組織にとって重要な課題ではあるものの、AIの原則を実践や行動に移すことは、まさに口で言うほど簡単ではないのだ。しかし、コンプライアンス違反に厳しい制裁金が科されることを考えれば、待ったなしの状態である。責任あるAIのイニシアティブを強化するために、リーダーは何をすべきだろうか。

 筆者らは、その答えを見つけるために多様な業界の組織を訪ねたところ、責任あるAIの導入に向けて、さまざまな段階があることを知った。データエンジニアやデータサイエンティストは通常、構想から生産に至るまでAIの開発ライフサイクルの大部分の責任を担うが、非技術系のリーダーは、責任あるAIの統合を確実に行うために重要な役割を果たすことができる。筆者らは、責任あるAIの実践を、より広範な業務上の基準に完全に統合させるために、リーダーが取るべき4つの重要な行動──翻訳、統合、調整、普及──を特定した。

第1段階:ハイレベルな原則を実践的なガイダンスに翻訳する

 多くの組織がAI倫理憲章を策定しているが、AIの原則を日常業務に導入する際に苦労することが少なくない。技術系労働者の79%が、倫理的な問題を解決するための実用的なリソースが必要だと回答しており、これらの原則を実用的なガイダンスに翻訳する必要がある。