生成AIの倫理リスク

 組織が把握すべき全業界共通のリスクは、少なくとも4つある。ハルシネーション(もっともらしい回答)の問題、熟考の問題、いかがわしい販売員の問題、責任共有の問題だ。これらのリスクを詳細に理解することで、企業は対処に向けた計画を立てやすくなる。

ハルシネーションの問題

 オープンAIのチャットGPT、マイクロソフトのBingやグーグルのバード(Bard)といった大規模言語モデル(LLM)に伴う深刻なリスクの一つは、誤った情報を生み出すことだ。

 これがどれほど危険かを示す例は多くある。医師が患者の診察にLLMを使ったり、消費者がLLMに金融や人間関係の助言を求めたり、製品に関する情報を尋ねたりすることは、考えられる無数の使われ方のごく一部だ。

 ハルシネーションの問題には、強調すべきいくつかの重要な側面がある。

 第1に、LLMの主張の真実性を確認する作業は、自動化できない。主張を現実と照合するプログラムを実行できるソフトウェアはない。主張の真偽の確認は、人間の手で行う必要がある。

 第2に、人々はソフトウェアプログラムのアウトプットを信用しやすい。実際、この傾向は「自動化バイアス」と名がつくほど強く根づいている。したがって人の手による確認は、自動化バイアスによる負の影響に対抗するためにも、行われなくてはならない。

 この問題は、LLMがしばしば示す権威がありそうなトーンによって悪化する。LLMはあまりに頻繁に間違えるだけでなく、あまりにも自信を持ちながら間違えるのだ。

 第3に、上記とも関連するが、人は怠惰であり、答えをすぐにほしがる。これはそもそもLLMに頼る理由の一つだ。そしてアウトプットの真実性を手作業でチェックするには、かなりの労力と時間がかかる場合もある。

 第4に、前述した火炎放射器の例えが示すように、このツールは文字通り組織の全員が利用できる。

 最後に第5の側面として、LLMが自信たっぷりに誤った主張をすることに気づいていない人は多く、そのような人々は特に、このツールに過度に依存しやすい。

 こうした背景を踏まえて強調すべき重要な点は、LLMは誤情報を出力する可能性があることを従業員にただ伝えるだけでは、このツールへの無意識の依存から脱却するには不十分であることだ。知識と行動は別物である。自動化バイアス、怠惰、スピードへの欲求を踏まえれば、「このアウトプットはおそらく大丈夫だろう」と正当化するのが一般的となる可能性が高い。

 これらの障害に対抗するには、デューディリジェンスのプロセス、そのプロセスの遵守、ツールの使用の監視が必要だ。そして、人間にありがちなこれらの欠点を是正できる他者を介在させることも求められる。