生成AIの統合

 ほとんどの企業は、生成AIツールを独自に構築するのではなく、システムに統合すると考えられる。以下では、生成AIをビジネスアプリケーションに安全に統合し、企業の業績に結びつけるための戦術的なヒントを紹介する。

ゼロパーティデータかファーストパーティデータを使用する

 企業は、顧客が主体的に提供したゼロパーティデータと、企業が自社で収集したファーストパーティデータを使用して、生成AIツールを訓練すべきである。モデルの正確さ、オリジナル性、信頼性を保証するカギとなるのは、強固なデータプロビナンス(データの発生、変化、宛先などの把握)である。サードパーティデータ、つまり外部ソースから得た情報に頼ってAIツールを訓練すると、出力の正確さを確保することが難しくなる。

 たとえば、個人情報をもとにビジネスを展開するデータブローカーは、所有するデータが古かったり、同一人物のものではないデバイスやアカウントのデータを誤って組み合わせたり、データに基づいて不正確な推測を行ったりする可能性がある。これは、セールスフォースが顧客の依頼で、顧客から提供されたデータを使用してモデルを訓練する場合にも当てはまる。そのため、セールスフォースのMA(マーケティングオートメーション)ツール、マーケティングクラウドで使用する顧客のCRMデータがすべてデータブローカーから来たものである場合、パーソナライゼーション(顧客体験のカスタマイズ)が間違っている可能性がある。

データの鮮度とラベルを維持する

 AIの性能は、訓練データの質を超えることはない。カスタマーサポートへの問い合わせに対する回答を生成するモデルが、古くて、不完全で、不正確なコンテンツを学習したら、古いか不正確な結果を生成する。これは、ツールが自信を持って虚偽を本当だと主張する「幻覚」につながる可能性もある。訓練データにバイアスが含まれていれば、バイアスを伝播するツールができる。

 企業はモデルの訓練に使用するすべてのデータセットやドキュメントをチェックし、偏見や有害な要素、虚偽の要素を取り除かなければならない。このキュレーションのプロセスは、安全性と正確さの原則のカギである。

人間を介在させる

 自動化できるからといって、そうすべきとは限らない。生成AIツールは、必ずしも感情やビジネスを理解し、自分の間違いや損害を与える危険性に気づけるわけではない。

 出力の正確さを確認し、バイアスを見抜き、モデルが意図した通りに動作していることを確認するために、人間が関与する必要がある。もっと大きく言えば、生成AIは人間の能力を補強し、コミュニティに力を与える手段であって、それらに取って代わるものではないと考えるべきである。

 生成AIを責任を持って導入し、従業員や顧客の労働体験を低下させるのではなく向上させる方法でこれらのツールを統合する場合、企業が果たす役割は大きい。これは結局、正確さ、安全性、誠実さ、エンパワーメント、持続可能性を維持し、リスクを軽減し、偏った結果を排除するという、AIの責任ある使用を担保することに帰結する。そして、そのコミットメントは目先の企業利益に留まらず、より広範な社会的責任や倫理的なAIの実践を包含するものでなければならない。

テストを繰り返す

 生成AIは、一度セットしたらほったらかしにできるというものではなく、たえず監視することが必要である。まずは、レビューを自動化する方法を検討し、AIシステムのメタデータ(データの付帯情報)の収集や、特定のリスクに対する標準的な緩和策の開発を行う。

 最終的には、人間が関与して、出力が正確か、偏見や幻覚がないかをチェックすることも必要である。倫理的AIの社内研修を実施し、第一線のエンジニアやマネジャーがAIツールを評価できるようにするとよいだろう。リソースに制約がある場合は、危害や損害の及ぶ可能性が最も高いモデルを優先的にテストするようにする。

フィードバックを得る

 従業員、信頼できるアドバイザー、影響を受けるコミュニティの声に耳を傾けることは、リスクを見極め、軌道修正するカギとなる。匿名のホットライン、メーリングリスト、専用のスラックやソーシャルメディアのチャネル、フォーカスグループなど、従業員が懸念を報告するためのさまざまな経路を設ける。問題の報告を促すインセンティブを設けることも効果的である。

 一部の企業では、各部門からの従業員、外部の専門家、またはその両方で構成される倫理諮問委員会を設置し、AIの開発について見解を示している。最後になるが、コミュニティのステークホルダーとオープンなコミュニケーションを保つことが、意図しない結果を避けるためのカギである。

* * *

 生成AIが主流になりつつあるいま、企業には、その倫理的な利活用と、潜在的な害悪の軽減を確保する責任がある。ガイドラインを守り、事前に予防策を設けることで、企業は導入するツールが正確で安全で信頼できるものであり、人間の繁栄を助けるものであることを保証できる。

 生成AIは急速に進化しているため、企業が取るべき具体的な手順も、時間とともに進化していくだろう。しかし、しっかりとした倫理的枠組みを守ることは、この急速な変革期を乗り切る助けになるはずである。

【訂正】本記事内のセールスフォースの社名を「セールスフォース・ドットコム」から現在の正式名称である「セールスフォース」に訂正しました。
(2023年8月4日9:06 DIAMOND ハーバード・ビジネス・レビュー編集部)


"Managing the Risks of Generative AI," HBR.org, June 06, 2023.