AI時代に求められる共感のリーダーシップ
Illustration by Ryan Todd
サマリー:リーダーに求められる資質として「共感」がこれまでになく重視されている。しかし、現場ではリーダーと従業員の間に意識のずれが生じており、AIの台頭もその状況を複雑にしている。スタンフォード大学の心理学者ジャミール・ザキが、共感研究の第一人者として、いま職場で起きている変化と、AI時代における共感の意味について語る。

職場における「共感」を軽視していないか

 私たちは今日、リーダーにかつてなく多くのことを期待している。強い共感力を発揮してほしいという期待もその一つだ。しかし、常にそうだったわけではない。むしろ最近まで、多くの人はリーダーの共感を強みではなく弱みと捉えていた。リーダーたるもの、感情の理解を示すべきではない、厳格であらねばならない、とされてきたのだ。

 共感について長年研究しているスタンフォード大学の心理学者ジャミール・ザキは、『ハーバード・ビジネス・レビュー』(HBR)での論考「共感力を無理なく発揮し続ける3つの方策」の中で、この考え方を覆した。「共感は弱みではなく、職場で大きな力を発揮する」と彼は論じ、多数の研究による証拠を挙げている。

「共感的な組織で働く従業員のほうが仕事への満足度が高く、創造的なリスクを取りやすく、同僚を手助けするようだ。深刻なバーンアウト(燃え尽き症候群)に陥ったり、ストレスによる身体症状が出たりする確率がはるかに低く、逆境に直面しても立ち直りやすい。離職率も低い。2022年に米国の1万5000人以上の従業員を対象にしたギャラップの調査によると、気遣いや思いやりがある組織に勤務する従業員のほうが、積極的に新しい職探しをする率がはるかに低い」

 ザキが指摘する問題は、リーダーは共感的になることで非常に多くのエネルギーを消費し、注意しなければ自分自身が燃え尽きてしまうことだ。ザキは論考の中で心理学と神経科学からの学びをもとに、「持続可能な共感」と彼が呼ぶものを実践することによってバーンアウトを防ぐ方法について、リーダーに助言を提供した。

 この論考が発表されてから1年半の間に、風潮が幾分変わってきた。一部の大企業のリーダーたちはいまや、従業員基盤の縮小とオフィス復帰の義務化に成功したことを誇示している。そして、かつて人間にしかできないとされてきた感情労働を担う共感的なAIエージェントを、企業はどうすれば最も効果的に配備できるかについて各所で語られることが増えている。

 こうした風潮は、共感性の乏しいリーダーシップスタイルへの移行を示唆しているのか。それとも、リーダーが共感力の発揮を要する場面でAIに頼るようになることを意味しているのだろうか。この点を含め、AI時代における共感をめぐるもろもろの疑問への答えを得るために、ザキの考えを尋ねた。

* * *

持続可能な共感に関する論考を本誌に寄稿されてから、18カ月以上が経ちました。どのような反響がありましたか。

 私が何よりも驚いたのは、読者の方々が語った安堵感です。他者を率いることは恩恵であり名誉なことですから、その権限を持つ人はしばしば、自分の感情について不満を言うことは恩知らずで無神経な行為だと感じてしまいます。しかしリーダーにも感情はあり、部下をより強く気遣うほど燃え尽きるおそれが高まります。多くの読者がこの記事に自分を重ね合わせ、自分だけではないと知って安心し、困難な時期に「持続可能な共感」の方法を学べたことをさらに喜んでくれました。

論考を書かれて以降、何が変わりましたか。

 困難な状況は変わらず、楽になっていません。経済の混乱、離職、そして止まらないAIの発展が、世界中の職場に新たなストレスをもたらしています。不確実性は視野を狭めてしまうおそれがあります。リーダーは当期の最終利益を維持するためのことだけに焦点を当て、人への投資はもっと恵まれた時期に許される贅沢だと考えてしまいます。

 これでは本末転倒です。不確実性が最も高い時期にこそ、人とつながり、変わることのないビジョンや中核的価値観を共有することが最も重要なのです。

いまの企業の方針は、たった1年前と比べても共感性が低下しているのでしょうか。

 常に共感的、または非共感的な方針というものは滅多にありません。必要以上に多くの人を雇い、不要な職務に就かせたままでいることは、思いやりではないでしょう。従業員に分散型ワークをさせながら、互いに断絶されたまま放っておくことも、必ずしも思いやりではありません。

 リーダーは方針そのものではなく、その方針が自身の組織文化に対するビジョンをなぜ、どのように反映するのかに焦点を当てるべきです。従業員をオフィスに引き戻し、ズーム画面の前に座らせたまま細かく管理するのであれば、それは当然ながら共感を欠いています。創造的な協働を行う特定の日に出社させ、共同体の価値を前面・中心に据えるのであれば、チームを強化することができます。

ビジネスソルバーは先頃、2025年版「職場における共感の現状」の調査結果を発表しました。報告によれば、組織における共感への認識は、CEO(共感的であると自認している)と、従業員(そうは感じていない場合が多い)の間で大きなずれがあるということです。

 これはビジネスソルバーによる10度目の年次調査ですが、過去数年に比べると暗い実態が示されました。2025年は、共感が過小評価されていることに同意したCEOの人数は2024年から28%減り、共感は「必要なもの」というより、「あるに越したことはないもの」と見なされているようです。従業員の意見は違います。人事担当者の約半数は、職場での共感力の発揮を経営陣が後押ししていないと答え、CEOの49%(2024年から16ポイント増)は、共感的につながりを築くことに時間を費やしていないと認めています。

AIについてどう思われますか。AIは共感への認識にどう影響を及ぼしているのでしょうか。

 まさにいま問うべき問題ですが、答えは複雑です。まず悪いニュースから言えば、AIはリーダーと従業員の間に共感のギャップを生んでいます。

 ほとんどの労働者はAIに不安を感じており、Z世代の従業員は、自分の職がAIに脅かされるだろうと答える傾向が最も高いです。他の不確実な時期と同じように、現在の大いなる未知の時代において、共感の必要性は減るどころか増えています。従業員の80%以上が、AI時代には人間的つながりがより重要になるだろうと答えています。これに同意するマネジャーは65%にすぎません。この明らかな認識のずれは今後、職場の文化を危機にさらすことになるでしょう。

 さらに厄介なのは、いわゆる「共感ウォッシング」の横行です。これは、共感的に見えるAIチャットボットを企業が配備して、リーダーと従業員間、あるいは企業と顧客間の乖離という、より深刻な問題を覆い隠そうとする場合を指します。それでは誰も騙せません。アルゴリズムを使った浅はかな共感の試み(「私たちはあなたの体験を大切にしています」と話すチャットボットなど)は、何もしないよりも悪質になる場合があります。

 皮肉なことに、従業員はつながりに飢えている時、しばしばAIに助けを求めます。2023年の調査ではZ世代の従業員の約半数が、上司よりもチャットGPTからのキャリアの助言のほうが有益だったと答えています。この数字は、いまでは確実に増えているでしょう。もしもチャットボットがリーダーとしてあなたより格段に優秀であれば、いまこそ自己を省みるべきかもしれません。

よいニュースはありますか。

 AIと、人々のAIに対する反応は、共感について2つの重要な気づきをもたらしてくれます。第1に、チャットボットは何に秀でているのかという点から学べます。人間は互いに話を聞く時、2つの落とし穴に陥りがちです。助言を与えるのが早すぎること、そして相手ではなく自分について話してしまうことです。AIは自我を持たないせいもあり、これらの過ちを犯しません。

 AIは厳密な指針に従います。まず相手を認め、配慮を示し、そのうえで初めて助言が必要かどうかを尋ねるのです。多くの場合、人々はこのような応答を人間よりも共感的だと見なします。リーダーはこれを嘆かわしいと思わずに、AIの指針をみずから試すことで学ぶことができます。

 第2に、たとえAIが巧みに共感してくれても、人は人を求めるものです。あなたは誰かのために寄り添うことを選んだ時、エネルギー、他のことをする余力、そして時間を犠牲にします。それらは二度と取り戻せません。その制約があるからこそ、思いやりは美しいのです。AIが発展し続ける中、人間ならではのつながりをさらに強める機会は誰にでもあります。それは職場でますます重要なスキルとなり、私たち全員にとってますます貴重なリソースとなるでしょう。

共感をAIに頼ることは、感情面のケアを「自動化されたコモディティ」にしてしまうリスクがあるように思えます。

 それは強調に値する危険性ですね。LLM(大規模言語モデル)は人ではなく製品です。どれほど共感的に見えても、思いやりをLLMに外注すると、2つの形でその価値を損なうおそれがあります。

 第1に、人間的つながりとは違い、LLMの共感は相互関係を求めません。チャットボットはあなたのそばにいてくれるけれど、あなたは何らかのリスクを取ったり、相手に寄り添ったりする必要がないわけです。

 これが共感を「たやすい」ことのように感じさせますが、その影響は破壊的です。共感を消費者体験に変えることで、本物の相互的なやり取りを行うために必要な社会的筋肉の衰えを招く可能性があるのです。組織レベルでは、それは従業員や顧客を関係性において孤立させることになりかねません。

 第2に、他のあらゆるテクノロジーと同じく、AIは常に開発者の意図を反映するものです。その意図が人々をつなげて支援することであれば、素晴らしいことです。一方で、LLMは共感を武器化して、人々を操ったり中毒にさせたりすることもできます。テクノロジー企業と彼らのつくったツールの実績を踏まえれば、そのリスクはとても現実的に思えます。


"AI Is Making the Workplace Empathy Crisis Worse," August 20, 2025.