いかがわしい販売員の問題
誰かに何かを売り込む最善の方法はおそらく、その人と話をすることだろう。販売員は信頼できる形で売り込みをすることもある。一方、本当にほしいわけではないものを買わせるために、相手の感情のスイッチを押すことに秀でた、いかがわしい口先だけの販売員もいる。
実際、筆者は夏休みにレンタカー会社でアルバイトをしていた時、車で何か問題が起きるかもしれないと借り手の不安を煽ることで、自動車保険(失礼、「補償」だ。「保険」と言うことは禁じられていた)を購入させる戦術を教えられ、当時は得意げに実践していた。
またウェブサイトのデザインでも、アカウントの解約を諦めさせるなどユーザーを操るテクニックがあり、これらはダークパターンと呼ばれる。
仮に組織で一部の人々が、金銭的インセンティブとノルマ達成へのプレッシャーというありがちな動機が相まって、人を操るのが非常にうまいLLMのセールスチャットボットを開発するとしよう。そのボットは人の心をつかむ方法と交渉術に関するあらゆる本を「読んで」おり、学んだ内容に沿った方法で消費者と会話するよう指示されている。
これは、組織の信頼性を確実に損なうやり方だ。消費者と接するLLMのチャットボットによって、消費者が体系的かつ大規模に騙されれば、多くの信頼を失い、儲けた以上の金額を信頼の回復に費やすことになるだろう(人々を体系的に騙して自社の製品を買わせることは、倫理的に悪質であるのは言うまでもない)。
責任共有の問題
生成AIモデルは「基盤モデル」とも呼ばれ、おおむね少数の企業によって開発されている。自社が生成AIをそれらの企業から調達する場合、そのモデルは自社で「ファインチューニング」することになる可能性が高い。社内のデータサイエンティストとエンジニアがその仕事を担当する。
だが、ファインチューニングされた生成AIを実装する際に何らかの倫理的問題が生じた場合、ある疑問が生じる。一体、誰が責任を負うのだろうか。
この疑問への答えは複雑だ。第1に、基盤モデルはたいていブラックボックスである。つまり、私たちは──データサイエンティストも含めて──AIが、与えられたインプットからどのようにアウトプットにたどり着くのかを説明できない。
第2に、基盤モデルを開発する企業の多くは、AIの設計、開発、検証のライフサイクルを通じて行われる意思決定について、特に透明化を図っているわけではない。たとえば、AIの訓練にどのデータを使ったのかを公表しないかもしれない。
したがって、組織は次の問いに直面する。モデルのファインチューニングと実装の過程で、倫理、レピュテーション、規制、法に関するデューディリジェンスをしっかり実施できるほどの十分な情報が、基盤モデルを開発したサプライヤーから自社に提供されているのか。
別の言い方をしてみよう。自社が生成AIモデルを実装し、倫理的な問題が発生したとする。自社が基盤モデルのサプライヤーから十分な情報を得ており、それに基づいてテストを行い問題を発見できたはずなのに、テストをしていなかったのであれば、(ほかの条件がすべて同じとして)責任は自社にある。
一方、効果的なデューディリジェンスができるほど十分な情報を自社が得ていなかった場合、責任はサプライヤーと自社の両方にある。サプライヤーは、デューディリジェンスに必要な情報を提供すべきだった点で責任がある。自社は、十分な情報がないことに担当チームが気づかなかった、あるいは気づいていたにもかかわらず前に進めると決めたことに責任がある。
これは、生成AIモデルの調達とファインチューニングを行う際に、実行可能性を分析することがいかに重要かを示している。分析には、デューディリジェンスを行うために何が必要かを自社の担当チームが把握できるか、その情報をサプライヤーから入手できるか、「実装しても十分に安全」となる基準は何か、などを含めなくてはならない。
リスクを管理する
一部の企業はこれらの問題を踏まえ、社内での生成AIの使用を禁じる動きに出た。これは賢明ではない。むしろそれは、10代の若者に禁欲を説き、安全な性行為について教えることを拒否するようなものである。きっと悪いことが起こるだろう。
したがって、生成AIの安全な使用に関する全社的な教育を、生成AI以前にはなかった方法で行うことが優先されるべきである。これには、組織内で対象分野の適切な専門家や識者に疑問を提起するための、明確で簡単なプロセスを設けることも含まれる。
とはいえ、生成AIの倫理リスクは、AIの倫理リスク対策プログラムの策定・導入を行う既存のアプローチが通用しないほど新しいものでもない。前述してきた4つの問題は、倫理リスクにさらなる焦点を当てる必要性を浮き彫りにするが、最も基本的な対処法は、非生成AIに適用されるものと共通する。
特に双方で重要となるのは、AIのライフサイクルの各段階で行う倫理リスクのデューディリジェンスのプロセス、AI倫理リスク委員会、AIの倫理リスクに関する全社的な学習とスキルアップ、そしてAI倫理リスク対策プログラムの実施、遵守、成果を測定する基準とKPI(重要業績評価指標)である。