生成AIの重大ミスを回避する、チームによるリスク管理術
MirageC/Getty Images
サマリー:生成AIは組織に変革をもたらす一方、組織の業務への統合にはリスクが伴う。スマートなリスク管理には企業ポリシーと個人の判断力が不可欠だが、すべての状況に対応するには限界がある。AIの誤りや偏見を発見し、是正... もっと見るするには、チームレベルの判断を活用し、協働してアウトプットを吟味、修正する必要がある。 閉じる

AIのアウトプットをチームで判断する

 生成AIは、学習、仕事、創造性、意思決定など、組織全体に変革の機会を提供する。人間と機械の前例のない協働へと向かうパラダイムシフトだ。

 ただし、生成AIを組織の業務に統合する方法は複雑である。信頼や正確性の問題、ハルシネーション(AIが「もっともらしさ」を優先して不正確なアウトプットを生み出すこと)、基盤モデルから継承した偏見など、リスクは数多くある。多くの企業が、生成AIの潜在的な欠点に陥ることなく、その力を活用するという難題に直面している。

 重大なミスを懸念して生成AIの使用を大幅に制限したり、全面的に禁止したりしている組織もある。こうした回避的なアプローチは、見かけ以上に危険だ。意図せぬ結果(従業員が個人のアカウントを使って制限を回避するなど)を招く可能性があり、企業が生成AIの恩恵を享受できなくなるからだ。

 一方で、生成AIの実験に前向きな企業は、スマートなリスク管理戦略の基本レイヤーを採用している。これらのリスク軽減策は、使用に関するポリシー、行動規範、承認済みツールの制限、ガードレールなどから始まる。こうした対策は望ましいものであり、必要なものだが、不十分でもある。技術の変化のペースが速いことを考えると特に、未知で将来起こる可能性がある、定義が難しい多くのシナリオに対応できない。

 リスク軽減に関しては、第2のレイヤーがより一般的になりつつある。いまでは多くの企業が従業員に、AIツールをめぐり批判的な思考と判断力を働かせるように奨励している。この個人レベルの判断は、AIが生成したアウトプットを吟味することに留まらない。AIとの適切なコラボレーションの枠組みを構築し、明確なコンテクストと境界を設定して、機械に継続的にフィードバックを与えることも含まれる。

 個人レベルで判断することは、ポリシーを定めるだけより利点がある。ポリシーではあらゆる状況をカバーできないため、AIを使うコンテクストに応じて従業員がガイドラインを解釈できるのだ。個人は自分で判断しながら、抽象的なルールを現実世界のシナリオに変換して適用できる。たとえば、プロンプトに含まれる特定の秘密の要素を慎重に削除して、機密性を確保することもできるだろう。

 ただし、個人の判断力だけでは、あらゆる状況に十分に対応できない可能性がある。実際、AIのハルシネーション、つまり不正確なアウトプットを生成した場合、人間はAIが生成した提案の権威的な口調に影響されて、意図せず「信頼の罠」に陥りかねない。

 このような観点から、新たなリスク軽減策として「チームレベルの判断」を提案したい。