(3)AIがデータを活用することにより、道徳上の問題が生じる可能性がある。

 たとえば、社員の退職確率を予測するアルゴリズムは、フェイスブックの投稿など、ソーシャルメディアのデータを利用することが多い。そのようなデータを収集することは、社員のプライバシーの侵害だと思うかもしれない。しかし、こうしたデータを用いなければ、モデルの予測能力が弱くなることも事実だ。

 また、平均的な社員に関してはアルゴリズムにより優れた予測ができるとしても、ある種のカテゴリーの社員に関しては精度の低い予測しかできない場合もあるだろう。たとえば、営業部員を採用する際に有効なモデルが、エンジニアの採用では役に立たないとしても不思議でない。

 このようなケースでは、カテゴリーごとに異なるモデルを採用すればよさそうにも思える。

 だが、カテゴリーの違いが、たとえば男性と女性、白人とアフリカ系米国人だとしたら、どうだろう(実際、これらのカテゴリーの間では有効なモデルが異なるように見える)。そのようなケースでは、法律上の制約により、カテゴリーごとに別々のモデルを用いることは許されない。

(4)アルゴリズムによる決定の根底にある基準を説明し、その正当性を示すことは、不可能とは言わないまでも難しい場合が多い。

 ほとんどの職場では、少なくとも何らかの人事上の決定基準が受け入れられている。「Aさんがチャンスを与えられたのは、長く勤めているからだ」「Bさんが今週末休みなのは、先週末出勤したからだ」。これまでは、このような基準により人事上の決定がなされてきた。

 この場合、もし望んでいた昇進が認められなかったり、希望していた勤務シフトで働けなかったりすれば、その決定を下した人物に文句を言うことができる。そうすれば、その人物が基準を説明してくれるだろう。その決定の公正性にいくらかで疑念があれば、もしかすると次の機会に力を貸してくれるかもしれない。

 アルゴリズムに従って決定を行う場合は、社員にこうした説明をすることができなくなる。アルゴリズムは、入手できる情報をすべて集めて、過去の結果を正しく言い当てられるモデルを(そのモデルはきわめて複雑なものになる)をつくり上げる。それを使って、未来の結果を予測するのだ。

 その判断をわかりやすい原則に帰することができるケースは少ない。「モデルによれば、これが最善だということだ」としか言えない場合が多いのだ。その結果、上司は公正性に関する懸念について説明することも、そうした問題を是正することもできない。

 この種のモデルを用いることで、これまでのやり方を大幅に上回る成果が挙げられない場合は、社員に不満を抱かせてまで、そのモデルを採用する価値があるのかを考えてみたほうがよい。

 たとえば、最年長の社員が最初に勤務スケジュールを選ぶ権利を持つ職場も多いだろう。この方式の利点は、基準が理解しやすいこと、少なくとも何らかの形でメンバーに共有されている公正性の概念に適合すること、適用しやすいこと、そして将来の恩恵(たとえば、長期間在職し続けるよう促せること)が期待できる可能性もあることだ。

 いつかは、アルゴリズムがこのような問題も考慮して判断を下せる日が来るかもしれないが、それはまだ遠い先になるだろう。

 アルゴリズムに基づくモデルは、これまでのやり方に劣るわけではないのかもしれない。しかし、アルゴリズムにつきものの公正性の問題は、大がかりに生じるので、目につきやすい。

 この問題を解決するために必要なのは、より多くの、そしてより質の高い指標を入手することだ。つまり、バイアスの影響を受けていないデータを集めなくてはならない。それを行えば、人事上の決定に機械学習によるアルゴリズムを用いないと場合でも、大きな意義がある。


HBR.org原文:4 Things to Consider Before You Start Using AI in Personnel Decisions, November 03, 2020.


■こちらの記事もおすすめします
HR部門のアナリティクス主導は飛躍的に進んでいる
人事評価データのほとんどが不正確な理由
アルゴリズムによるマネジメントの問題はどこにあるのか