私たちの研究は、倫理オーナーは皆、何らかの形でテクノロジー業界を批判するが、彼らが目指すのは、テクノロジー業界を「ストップ」することではないことを示している。

 倫理オーナーは、一緒に働くエンジニアたちと同じように、数値主義的でスピーディな仕事が評価される組織文化に染まっている。このため組織に適応するプレッシャーにさらされ、組織に異議を唱える能力は弱められる。

 そうなれば成功と失敗を見分けることは一段と難しくなり、倫理的な勝利は罰のように見える一方で、倫理的に問題のあるプロダクトは大きな称賛を得る。このことから生じる緊張には、プロセスと結果の両方に目を配り、長期と短期、社内と社外、そして社員と社会の一員といった幅広い視点で対処する必要がある。

 このような緊張が明らかになった例として、スタンフォード大学のフェイフェイ・リー教授が挙げられる。

 リーは同大の「人間中心のAI研究所(Human-Centered AI Institute: HAI)」の共同設立者であり、著名なAI研究者だ。だが、グーグルで働いていたとき、米軍のドローン向け顔認証システムにグーグルのAIプロダクトが使われていることは他言無用、とするメールを社内に送っていたことが発覚し、たちまち批判にさらされた。

 リーはみずからの大きな影響力を、倫理的に問題がある「プロジェクト・メーブン(Project Maven)」への参加を反対するために使うのではなく、このプロジェクトに関わっていることが世間に知られたら「人間的なAI」を唱えることで培ってきたポジティブなイメージを傷つけることになると、同僚に語っていたのだ

 人権法学者のフィリップ・アルストンも、2018年の「AIナウ(AI Now)」シンポジウムで、「倫理を締め殺したい」と語って猛烈な批判を浴びた。もちろん、アルストンは冗談のつもりで言ったのであり、「倫理」とは(確固たる法的枠組みがある人権などとは異なり)、明確な規範がなく、「オープンエンド」で、「未定義で説明できない」試みとしてアプローチされることが多いと言いたかったのだ。たしかに倫理は、具体的な結果よりも、強力なプロセスの確保を重視する。

 良くも悪くも、こうしたプロセスのパラメーターは、未来の規制、アルゴリズム・アカウンタビリティ、投資における優先順位、そして人事に関する決断を左右するだろう。我々がデジタル技術の影響を管理する方法を議論するとき、私たちの未来でそれらの形成を仕事にする人たち、すなわち倫理オーナーの視点をもっと含めるべきである。


HBR.org原文:The Ethical Dilemma at the Heart of Big Tech Companies, November 14, 2019.

■こちらの記事もおすすめします
企業文化に害をもたらすリーダーの3つの悪習
組織の不正が繰り返されるのは、非倫理的行為ほど忘れやすいから
DHBR2019年12月号特集「信頼される経営」