AI導入の失敗は技術ではなくチームのダイナミクスにある
Richard Drury/Getty Images
サマリー:生成AIの導入により生産性の向上が期待される一方、誤った提案や修正の負担が増え、チームの信頼やパフォーマンスが低下する場合がある。多くのリーダーはこれを技術的な課題と捉えるが、本質は人間とAIの協働におけるチームダイナミクスの問題であり、その理解が不可欠である。

AIを活用しても成果が出ない時に、リーダーが見過ごしていること

 あなたのチームで、不吉なことが起きているようだ。AIツールを導入すれば生産性の向上が期待されるのに、チーム全体のパフォーマンスは低下しているように見える。チームメンバーは自己疑念を抱き始め、信頼はどこからともなく崩れている。

 次のようなシナリオを考えてみてほしい。あなたの会社のマーケティングチームは、生成AIツールを使ってキャンペーンの成績を分析している。AIは、堅実なデータ分析と思しきものに基づく予算の再配分を、自信満々に推奨する。ところがその再配分の方法は、顧客セグメントに関する根本的な誤解に基づいていることが判明した。キャンペーンは失敗に終わり、予算は無駄になり、突然チーム全員が、AIの提案内容だけでなく、AIを評価する自分たち自身の能力にも疑問を持ち始める。

 組織は急速にAIをワークフローに導入しているが、AIが技術的な課題をもたらすうえに、チームのダイナミクスにも根本的な問題を生じさせることに、リーダーらは気づき始めた。AIツールは典型的な組織行動の問題に酷似した、予測可能なチーム機能不全のパターンを生み出す可能性がある。「ワークスロップ」の増加を考えてみるとよい。AIが生成した成果物がプロジェクトを前進させるどころか、それを修正したり、やり直したりしなければならない同僚に、よけいな認知的、感情的労働を強いる。その結果、生産性が低下するだけでなく、同僚に対する信頼も傷つく。

 だが、ほとんどのリーダーはこれについて、AIをチームに統合する際の課題と認識していない。よりよいツールや訓練によって解決すべき技術的な問題と見なして、チームの有効性の問題(それを解決するには人間のコラボレーションを成功させる原則の多くを必要とする)と考えないようである。

 筆者らの研究(セスは3MのR&D部門向けにAIユースケースを構築し、エドモンドソンはAIが労働力や社会に与える影響を研究している)では、人間とAIの融合チームのダイナミクスを理解することが、組織論や実務の面だけでなく、多大な損失を招くミスや、チームの信頼の喪失を防ぐためにも、重要であることがわかった。

信頼が崩れる場所

 信頼は、チームのパフォーマンスにとって極めて重要であることは、よく知られている。AIはそのダイナミクスを変える場合がある。AIが自信を持って間違った情報を提供してくる時、「信頼の曖昧さ」が生まれる。曖昧さは、実のところ信頼が欠如しているのに、信頼は当然存在するという思い込みがある時に生じる。さらに、こうした信頼の欠如は、話題にしてはいけないと感じられることが多い。信頼が曖昧な時、チームメンバーはAIのアウトプットだけでなく、自分の判断も信頼できなくなる。研究によると、AIを継続的に使用していると、専門家ですら、AIの推奨内容に異議を唱える自信が低下する。それは、チームの学習とパフォーマンスの基礎を成す心理的安全性を直接脅かす。なぜなら、曖昧さは声を上げる意欲を妨げるからだ。

 別のシナリオを考えてみよう。AIが特許分析に基づき、サステナブルな「ブレークスルー」技術の開発を継続するよう自信を持って推奨した。ところがAIは、失効した特許を現行のイノベーションと誤認していたため、その推奨どおりに行動した組織は、時代遅れの技術に投資し続けることになった。

 これはAIの精度だけの問題ではない。人間のミスとは異なり、AIの不正確さがチーム全体に波及していく点が重要なのだ。人間の同僚がミスをすると、多くの場合、チーム全体でその意味を考えたり、チームのメンタルモデルや、誰が何を知っているかについての理解を更新したりする。

 人間は質問できる(「どのデータを見たのですか」「どういう理由で書いたのですか」)し、状況を理解できる(「締め切りに間に合わせるために急いでいたのですね」)。そして、同じことを繰り返さないために協力できる(「レビューをプロセスに組み込みましょう」)。この相互学習と責任探求のプロセスは、チームの学習と絆を強化できる。

 生成AIの誤りは、この根本的なチーム学習のプロセスを阻害する可能性がある。AIの思考回路は「ブラックボックス」であるため、AIが自信を持って物事を推奨する時、チームは協働的な意味付けに取り組むことができない。透明性や説明の機会の欠如は、チームメンバーがAIに対する信頼を適切に判断できず、その成果物に確信を持てなくなるおそれがある。AIを信頼して、通常行うチェックや話し合いを省略して前進した結果、間違いだった、ということが起こりうる。AIの仮説に異論を唱えることはできないし、その結論に至った経緯を調べたり、推論の連鎖を理解したりすることはできない。これにより、原因の特定が困難になる。AIのアウトプットで何かがおかしくなったことはわかるが、その原因や、不確実性を低下させたり、再発を防いだりする方法を理解する明確な道筋はない。