AI採用が引き起こす静かで深刻な問題
Roger Wright/Getty Images
サマリー:AIの導入が採用における「公平性」の意味そのものを変え、特定の定義を固定化してしまうことがある。調査によれば、アルゴリズムによる採用システムが、人事部門の重視する硬直的な公平性を優先する一方で、現場マネジャーの文脈に基づく判断を排除していた。本稿では、AI採用において公平性がどのように定義され、誰によって正当化され、運用の過程でどの視点が失われていくのかを説明する。

AIが採用に与える影響

 AIは公平性を向上させるのか、それとも低下させるのか。いまや9割近い企業が何らかの形で採用にAIを活用しており、この問いは多くの経営陣にとって重要な関心事になっている。そして、その答えは大きく2つに分かれる。一つは、アルゴリズムが意思決定における人間の「バイアス」や「ノイズ」を減らし、採用をより公平にするという考え方だ。これに対し、アルゴリズムが既存の不平等を大規模に再生産し、さらに増幅しかねないと警告する人々もいる。

 しかし、どちらも重要な現実を見落としている──AIが導入されると、そもそも何を公平と見なすかが再定義されるのだ。

 そこが問題である。大半の企業は、開発から運用に至るまで、AI採用ツールを深く継続的に評価することなく導入している。公平性は、リーダーが実践の中で監視・調整し続けるべきものではなく、ツールが導入初日から提供するものとして扱われがちだ。そのリスクは静かだが深刻である。AIは候補者プールを狭め、人間の専門性を脇に押しやり、公平性の定義を一つに固定してしまうおそれがある。筆者たちは新たな研究で、公平性の定義が採用結果をどのように形づくるのかを追跡した。そして、ツールが候補者、マネジャー、企業にとって本当に採用を改善しているかどうかを見極めるために、リーダーが考えるべき、よりよい問い提示する。

今回の研究が示すこと

 筆者たちは年間1万人以上の求職者に対応しているグローバルな消費財企業で3年間のフィールド調査を行った。人事部門は公平性を高めるために、履歴書の審査に替えて、AIが分析する匿名化されたゲーミフィケーションの評価を導入した。アルゴリズムは、同じゲームを完了した現役社員のデータで訓練され、彼らのスコアと業績の成果が関連づけられた。成功に関連する特徴のパターンを学習することで、システムは新規候補者の「適合度」を予測する。名前、出身校、その他の人口統計学的な指標は非表示とした。発想は単純だ──データ主導の一貫したルールによって、採用をより公平にしようというのだ。

 しかし、ツールの導入規模が広がるにつれて、公平性の定義が変化し始めた。人事部門はすべての候補者に対する一貫性を優先したが、現場のマネジャーは地域の事情を重視した。役職や市場、チームによって採用の決め手が異なるという前提を共有していたのだ。

 両者の考え方は組織のなかで長年、共存してきた。しかしアルゴリズムは、人事部門の原則を、回避が難しい硬直的なルールへと変質させた。時が経つにつれて、アルゴリズムに組み込まれた公平性の解釈が主流となり、現地のニーズに合わせた柔軟な対応といった視点は後退した。

リーダーが問うべき真の問い

 ここで人間と機械のどちらがより公平かを問うても、本質には迫れない。リーダーが考えるべきなのは、組織内で「公平」が実際に何を意味するのか、誰がそれを定義するのか、そして、AIがどの公平性を強化し、どの公平性を排除するのかを明らかにするような問いである。そこで筆者たちの研究をもとに、リーダーが導入の前後にシステムをより深く評価し、多様な意味を含めて公平性を中心に据えるために役立つ問いを見ていこう。

1. 組織内にどのような種類の公平性が存在するか

 企業は採用にAIを導入する際、公平性には単一の明確な意味があると考えがちだ。しかし現実には、公平性には複数の意味が存在し、それらが常に一致するとは限らない。