第2に、現在、AI関連の開発業務に携わる女性が極めて少ないという問題がある。世界経済フォーラムとリンクトインの2018年の調べによると、AI関連の職種に女性が占める割合はわずか22%。上級職になるとその割合はもっと低くなる。
これは見逃すことができない不均衡だ。AI技術を学び、実験し、実行する人々は、組織が日常的に使用するツールを創造する。彼らの決定に無意識のバイアスが混じっていたら、最終的なプロダクトに深刻な影響が出るかもしれない。
すでに、履歴書をふるいにかけ、面接を行い、報酬を決定し、勤務評価をするプロセスに、アルゴリズムを利用する人事部は増えている。こうしたツールは、人間よりも客観的な意思決定ができる傾向があるが、簡単に失敗することもある。アマゾンは、AIを使った採用ツールが女性よりも男性を優遇していることがわかり、その使用を中止した。
AIツールを使う場合は、技術チームの多様性をできるだけ高めることで、ジェンダーバイアスの入ったツールを使う事態を避けることができるだろう。また、ツールの開発にもっと女性を参加させれば、意図せぬジェンダーバイアス(男女比に偏りがある過去のデータを使って採用/昇進アルゴリズムを訓練するなど)を、事前に発見しやすくなる。
ジェンダーバイアス発見テストを定期的に見直すことも重要だ。たとえパラメーターにジェンダーが含まれていなくても、最終的なツールが男女によって異なる結果を示すことがある。また、アルゴリズムが履歴書をふるいにかけるとき、仕事をしていない期間があったり、昇進なしの期間が長かったりすると、それをネガティブ指標と見なすことが多い。しかしキャリアアップの停滞のように見えるものは、実のところ出産のため仕事をセーブしていたためであり、仕事上の能力が原因ではない可能性がある。
したがって、履歴書に基づき採用や勤務評価、昇進、あるいは報酬に関して助言を与えるツールを開発するときは、男性であれ女性であれ、同等の能力を持つ人には同じ答えを出すツールになるように設計すべきだ。
こうした状況は、我が子のように約20年後に労働市場に入る女性には、何を意味するのか。今後しばらくは、AIツールが、理想ではなく過去のデータに基づき訓練されて、とりわけ女性には難しい状況が生まれる恐れがある。企業や組織の経営者は、活用するAIツールが女性の能力を見落とすのではなく、発掘できるようなものとなるように、独自のチェックを行うべきだ。
科学技術分野では女性が少ない一方で、心の知能指数(EQ)や高度なコミュニケーションスキルが必要とされる職種(医療言語聴覚士や保育士、作業療法士など)では、女性の割合が極めて高くなっている。共感やコラボレーションは、AIツールで再現するのが最も難しいスキルの一部であり、こうした職種の多くは技術による破壊を逃れる可能性が高い。
AIの登場により生じるハッピーな可能性の一つは、AIツールが単純作業を担うようになることで、人間は互いを理解し合い、協力し合う能力が高く評価されるようになることだ。また、危険な職種が機械に担われるようになり、伝統的に男性または女性に偏っていた職種に、ジェンダーバランスがもたらされるかもしれない。
だとすれば、子どもたちの世代は、男女にかかわらず、より多様な選択肢(と仕事へのより大きな満足感)を得られるのかもしれない。
HBR.org原文:As Jobs Are Automated, Will Men and Women Be Affected Equally? November 01, 2019.
■こちらの記事もおすすめします
仕事の自動化は女性の働き方を向上させるのか
あなたは自動化されないスキルを磨いていますか?
トラック運送業はオートメーションによって廃れるのか

エマ・マルティーニョ=トラスウェル(Emma Martinho-Truswell)
デジタル化と人工知能がもたらす戦略的・文化的リーダーシップの可能性について助言するオックスフォード・インサイツの共同創設者であり、最高執行責任者(COO)。