AIチャットボットのリスクに適切に対処する方法
Illustration by HBR Staff
サマリー:2022年、オープンAIのチャットGPT公開に対抗してグーグルがバード(現ジェミニ)を発表したが、誤答によりアルファベットの株価が9%下落した。また、2023年にはチャットGPTが生成した架空の情報を使った弁護士やジ... もっと見るャーナリズムでの問題が発生している。これらは、企業やプロフェッショナルが正確性を確認せずに、AIチャットボットを使用するリスクを如実に示している。本稿では、チャットボットを利用したタスクのタイプから、リスクへの適切な対処法を分類し、提示する。 閉じる

生成AIによる情報の正確性をめぐる問題

 2022年11月にオープンAIがAIチャットボット「チャットGPT」を公開すると、グーグルがそれを追うように自社のチャットボット「バード」(現ジェミニ)を発表した。だがバードは最初の公開デモンストレーションで、ジェームズ・ウェッブ宇宙望遠鏡による発見についての質問に、重大な事実誤認を含む回答をしてしまった。このチャットボットの誤答のせいで、グーグルの親会社アルファベットの株価は9%下落し、時価総額1000億ドルを失うことになった。

 チャットボットのリスクを示す事件は、さまざまな職種で起こっている。2023年、ニューヨーク連邦地方裁判所は、チャットGPTが生成した架空の判例と法的引用を含む準備文書を提出したとして、2人の弁護士に罰金の支払いを命じた。またジャーナリズムでは、いくつかの著名な刊行物がチャットボットの生成したコンテンツを使用して、面目を失うはめになった。その一例がスポーツ・イラストレイテッドで、同誌はAIが生成した架空の記者名による複数の記事を顔写真付きで掲載したのである。

 どちらのケースも、プロフェッショナルや企業がチャットボットのコンテンツを無批判に使用していたもので、氷山の一角にすぎない。大規模言語モデル(LLM)の公開を急いだあまり、こうしたツールが生成する虚偽や誤情報について多くの課題が残っている。そのため、マネジャーや企業は、情報の正確性をめぐる期待とプロフェッショナルとしての水準に照らし合わせ、新たなリスクが増大していることを理解し始めている。

 本稿では、こうしたリスクの性質を考察し、それに対処する方法について、筆者らが研究で得た情報をもとにしたガイダンスを提供したい。

新しいツール、新しいリスク

 チャットボットの応用の可能性に対する純粋な期待と興奮が渦巻く一方で、「ボットシットの認識リスク」が存在する。筆者らの定義では、ボットシットとは、チャットボットのコンテンツの中でもでっち上げられたものであり、不正確で虚偽も含む。そして人間は、それを無批判にタスクに使用することがある。

 ボットシットのリスクに有効に対処しないと、プロフェッショナルやリーダーたち、そして企業に重大な結果をもたらしかねない。そのリスクには評判の低下、誤った判断、法的責任、経済的損失、そして人間の安全までもが含まれる。

 この現象が見られる領域の一つが医療である。もしチャットボットの信頼性が高いなら、薬局のような消費者と対面する医療場面への導入には明らかなメリットがある。チャットボットならば24時間年中無休で、薬の処方や調剤に関する質問に即時に回答できる。しかし、2023年の米国医療システム薬剤師協会年次大会で発表された研究によると、現状では、チャットGPTが薬に関連する質問に対して生成した回答の約4分の3は不正確または不完全なものだったという。