企業がAI倫理にグローバルで取り組む方法
Illustration by Ola Szczepaniak
サマリー:AI倫理の策定は、企業にとって重要な課題だ。倫理は文化的コンテキストに依存するため、単一の基準をグローバルに適用することにはリスクがある。欧米の視点に偏ったAIモデルやデータ不足は特定のコミュニティに悪影... もっと見る響を及ぼす。そこで企業は、地域ごとの協働と現地チームへの権限委譲を通じて、文化的背景を考慮したグローバルなAI倫理モデルを構築する必要がある。 閉じる

AI倫理の基準は欧米視点でよいのか

 AI倫理の方針を適切に策定することは、組織にとって重大な利害を伴う課題である。採用アルゴリズムや求人検索結果にジェンダーバイアスがあることが広く知れ渡れば、その会社は評判を落とし、規制に抵触し、政府から重い罰金を科される可能性さえある。

 このような脅威を踏まえ、AI倫理を積極的に浸透させるための体制やプロセスをつくる組織が増えつつある。一部の企業はこの動きをさらに進め、AI倫理のための制度的枠組みを構築している。

 しかしながら、多くの取り組みは、ある重要な事実を見逃している。すなわち、倫理は文化的なコンテキスト(背景、状況)によって異なるということだ。

 第1に、ある文化における善悪の概念は、根本的に異なるコンテキストにおいては通用しない可能性がある。第2に、たとえ善悪について一致していても、作用する倫理的根拠──文化的規範や宗教的伝統など──に重要な違いがあるかもしれず、それらを考慮する必要がある。最後に、AIおよび関連データの規制は、異なる地域間で同じであることはめったにないため、AI倫理の遵守面でばらつきが生じうる。

 これらの要因を考慮しなければ、企業と顧客の両方にビジネス面で深刻な影響が及びかねない。

 現在、AI倫理に関する新たな世界基準は、主に欧米の観点を中心につくられている。たとえば、報告書、枠組み、推奨事項を集約したデータベースの「AI倫理ガイドライン・グローバルインベントリー」(AEGGA)は、2024年4月時点で173のガイドラインを収集しているが、「大多数は欧州と米国を出所とする」と記しており、想像されるほどグローバルなものではない。にもかかわらず多くの企業は、これらの基準をそのまま採用してグローバルに適用している。

 欧米の観点は、暗黙のうちにAIモデルの中にもコード化されている。たとえば、世界各地にいるインド人と中国人を合わせると世界人口の3分の1を占めるが、画像データベース「イメージネット」の全画像の中で、両者の画像が占める割合は3%にも満たないとの推計がある。

 一般的に、高品質なデータの不足は、予測能力の低下と過小評価グループへの偏見につながりやすい。特定のコミュニティに向けてツールを開発することがそもそも不可能になる場合さえある。例として、LLM(大規模言語モデル)はいまのところ、インターネット上であまり使われていない言語について訓練を受けることができない。インドのIT組織を対象に行われた最近の調査では、高品質データの不足は依然として、倫理的なAI慣行を妨げる最大の要因であることが明らかになっている。