現場の従業員がAIを信頼していない時、企業はどう対処すべきか
Francesco Carta fotografo/Getty Images
サマリー:最前線で働くフロントラインワーカーの間で、会社支給のAIへの不信感が強まっている。デロイトの調査では、生成AIへの信頼度が短期間で大幅に低下し、認可外ツールの利用が拡大している実態が浮き彫りとなった。この不信感の背景には、意思決定の剥奪や失職への根深い不安がある。本稿では、信頼を測定し、共創や実験を促すことで人間中心の導入に成功した企業の事例を交え、信頼のギャップを埋めるための5つのアプローチを紹介する。

フロントラインワーカーはAIを信頼していない

 最前線で働くフロントラインワーカーの間で、AIに対する信頼が揺らいでいる。そして、その状況は悪化しつつある。デロイトのトラストIDインデックス(顧客および従業員のセンチメントに関する日次パルス調査)によると、会社から支給された生成AIへの信頼度は、2025年5月から7月までの間に31%低下している。そもそも、このツールは仕事の負荷軽減と創造性の向上のために支給されたはずだった。この入手可能な最新の調査結果には、生成AIの信頼性と価値に対する疑念の高まりが反映されている。

 またレコメンデーションの提供だけでなく、自律的行動ができるエージェント型AIシステムへの信頼度は、同期間に89%低下した。従業員は、かつて自分たちが下していた意思決定をテクノロジーが奪ってしまうことに、心穏やかでいられなくなっている。

 この研究では、会社支給のAIツールの利用が2月から7月までの間に15%減少したことも明らかになった。ここで厄介なのは、AIにアクセスするフロントラインワーカーの約半数が、未認可のツールを頼るようになっていることだ。公認のソリューションよりも非公認のソリューションを信頼している兆候である。このことから、問題はAI全般への不信感ではないことがわかる。経営者が使用を求めるAIへの不信感なのだ。

 従業員は会社公認のツールに対し、導入ではなく強制されたもの、ともに創造したものではなく義務づけられたものだと感じている。その疑念の背後には、さらに深い恐れが潜んでいる。自分たちに取って代わるかもしれないテクノロジーの推進を求められているという不安だ。

 革新的なAIの活用には大きなリスクを伴うため、信頼に関する問題の重大性を理解することが不可欠だ。本稿では、いくつかの企業(デロイトのクライアントおよび研究対象の企業)がこの問題に対処するために行っている5つのアプローチを紹介したい。それは他の企業でも採用できる解決策だ。

1. 信頼を測定する

 最初のステップは、信頼に関する問題の大きさと性質を理解することだ。

 デロイトのトラストIDインデックスは、市場で株価を追跡するのと同じように、リアルタイムで、さまざまな業界や職務の人を対象に信頼度を追跡している。この調査には、毎年、あらゆる経済部門の大小さまざまな米国企業の従業員約6万人が回答し、所属企業とテクノロジーの信頼性、ケイパビリティ、透明性、人間性(「信頼の4大要素」と呼んでいる)について感じることを共有している。回答者は各記述への同意を1~7の尺度で答え、それに基づいて各要素が採点される。

 たとえば、所属企業には共感性や公正性があるか(人間性)、コミュニケーションはオープンで明快か(透明性)、質の高い製品や体験を提供しているか(ケイパビリティ)、約束を一貫して遵守しているか(信頼性)などである。デロイトのトラストIDは、こうした側面を統合して、行動学および統計的研究に基づくコンポジットスコア(複合得点)を出している。

 信頼はすべての人にとって有益なものであり、この枠組みは捉えにくいものを実行可能なものへと転換する。筆者らは、すべての企業が信頼の中核的要素を社内で評価することを勧めている。信頼はビジネスの成功の根幹を成すものなので、デロイトはトラストIDの方法論をオープンソースとし、測定の背景にある科学を説明した章をダウンロードできるようにしている。少なくとも、信頼の4大要素を現行の測定方法(年次人材調査にしろ、AIの試験的活用にしろ)に含めることをお勧めする。