
-
Xでシェア
-
Facebookでシェア
-
LINEでシェア
-
LinkedInでシェア
-
記事をクリップ
-
記事を印刷
利害のバランスをいかに取るか
アリゾナ州スコッツデールを拠点とするテーザー銃およびボディカメラのメーカー、アクソン・エンタープライズの創設者兼CEOであるリック・スミスは2018年、テクノロジーの進展によって新たな難しい倫理的問題が生じていることを懸念するようになった。
彼は、倫理学者とAI(人工知能)の専門家、公共政策のスペシャリスト、そして法執行機関の代表から成る独立したAI倫理委員会を設置し、アクソンの経営陣に対して勧告を提供してもらうことにした。
2019年、倫理委員会は同社のボディカメラ製品に顔認識機能を搭載することに反対する勧告を出した。また2020年には、ナンバープレートの自動読み取り技術の利用に関するガイドラインを提供した。アクソンの経営陣は、この両方の勧告に従った。
2022年、経営陣は銃乱射事件への対策としてテーザー銃搭載ドローンの生産プロジェクトを発案したが、倫理委員会はそれに反対する勧告を出した。当初、経営陣は勧告を受け入れたが、その後態度を変え、2022年6月にユバルデ市内の小学校で銃乱射事件が起きると、生産プロジェクトの開始を発表した。委員会は非常に厳しい反応を示し、委員13人中9人が辞職して、懸念を表明する文書を発表した。それを受けて、アクソンはプロジェクトの中止を発表した。
デジタル技術の責任ある使用に対して、社会の期待が高まる中、よりよいプラクティスを推進する企業は明らかに優位となるだろう。2022年の調査によると、消費者の58%、従業員の60%、そして投資家の64%は、みずからの信念と価値観に基づいて重要な決定を下している。
組織のデジタル責任を強化することは価値創造を促進し、
しかし、多くの組織は、関係者間の正当だが相容れない利害のバランスを取るのに難儀している。
対立関係が生じるのは主として、ビジネス目標と責任あるデジタルプラクティスとの間である。たとえば、国境を超えたデータの移動を制限するデータローカライゼーションの要求は、グローバルに分散したバリューチェーンの効率化という願望としばしば対立する。AIやアルゴリズムの開発時に導入すべき倫理的で責任あるチェッ
データと分析の向上によってサービスのパーソナライゼーションが強化できるかもしれないが、一方で顧客のプライバシーが犠牲になることもある。透明性と差別に関連するリスクを考慮して、コスト削減に役立つかもしれないアルゴリズムの使用を控える企業もあるだろう。
効果的に対処すれば、デジタル責任は組織を脅威から守り、新たな機会への道を開く。デジタル・トランスフォーメーションに関する継続的調査と、デジタル責任に対して積極的に取り組む欧州の大手企業12社(消費財、金融サービス、情報・コミュニケーションテクノロジー、製薬などの部門)を対象とする徹底した調査から、筆者らはビジネス価値を最大化し、抵抗を最小化する4つのベストプラクティスを導き出した。
1. デジタル責任を組織の価値観に組み込む
デジタル責任へのコミットメントは、自社が従うべき主要な原則やベンチマークを述べた会社定款で公式に示すことができる。
それは基本的な問いから始めるとよい。自社ではデジタル責任の目標をどう定義するか。その答えは多くの場合、ミッションステートメントやCSR(企業の社会的責任)のコミットメントに明示された組織の価値観から見出すことができる。
美容やパーソナルケア用品メーカーのヴェレダで、組織開発およびデジタル・トランスフォーメーション担当マネジャーを務めるヤコブ・ヴェスナーは、このように述べる。「当社がデジタル化された世界で何をしたいのか、どこに限界を設定し、どこへ向かい、あるいは向かわないのかは、当社の価値観に規定されています」。ヴェレダの中核的価値観は、公正な処遇、サステナビリティ、誠実さ、多様性である。そのため、同社の幹部はロボットによる業務自動化のプログラムを立ち上げる際、それが失業に結びつかないよう慎重に事を進めた。公正な処遇という中核的価値観に背くおそれがあったからである。