もちろん、私たちはあらゆる採用判断をAIシステムで下すように、促しているわけではない。人間の監視は常に必要である。人間が判断する際に役立つ正確かつ有効なデータがあれば、人間の意思決定は大幅に改善する、というのが私たちの考えなのだ。
当然ながら、このような画期的なテクノロジーツールを使うことによる、法的および倫理的影響についての考慮も必要である。この点は、従来の評価方法の利用を考える時と変わらない。
たとえば、どんなデータを使って学習させるかによって、この手のシステムはさまざまな悪しきバイアスを勝手に学んでしまうおそれもある。企業は、こうしたシステムの学習の仕方に注意を払い、バイアスの可能性に関して定期的に監査する必要がある。さらに、人間に関して知ることが「できる」ことと、知る「べき」ことの間には明確な違いがあり、この部分で法的および倫理的な一線を超えてしまう可能性もある。
だが同時に、善良な行動規範の範疇にとどまりつつ、本記事で述べたようなイノベーションを実践することは可能だ。候補者たちは、テクノロジーを用いて評価されることについて十分な説明や報告を受け、この方法をみずから選択する機会を与えられるべきである。組織側は機密データすべてを完全に保護して安全に保管すべきであり、プロセス全体を透明にしなければならない。
実際のところ、候補者が自分のデータや評価結果の所有権を持つことさえ可能であり、それが望ましい。そうなれば候補者は、評価結果を任意の採用担当者や雇用者にも見せるか否かを、自主的に決めることができる。
このようなシナリオは、本記事で述べてきた新たなテクノロジーよりも夢想的に思われるだろう。だが、私たちは採用担当者や雇用者に、この方法を考慮するように促したい。
結局のところ、候補者をよく理解することと、候補者自身がみずからを的確に理解してもらうよう手助けすることは、両立できるのだ。新たなテクノロジーによって、適任者を適所に配置する能力を向上できれば、組織も人も大いなる恩恵を受けるだろう。
HBR.org原文:Should Companies Use AI to Assess Job Candidates? May 17, 2019
■こちらの記事もおすすめします
人事リーダーにもデータスキルが不可欠である
データに強い人事部をつくる効果的な採用・育成法
人事部にはビッグデータなど存在しない