
-
Xでシェア
-
Facebookでシェア
-
LINEでシェア
-
LinkedInでシェア
-
記事をクリップ
-
記事を印刷
生成AIが組織内の対立を防いでくれる可能性
生成AI(人工知能)は、オンライン上で争いを引き起こすことを目的とする、悪意のある行為者にとって、革新的な兵器のように思えるに違いない。ディープフェイクの映像は前例のない忠実さで公人になりすまし、大量の会話チャットボットは個別に訴えて対立を煽る。このようなキャンペーンを検知し、緩和する取り組みはまだ初期段階にある。
一方で、生成AIは組織内の対立を仲裁することもできるのだろうか。筆者が同僚と行った研究では、チャットGPTなどの大規模言語モデルが、オンライン会話をより生産的なものにし、インシビリティ(無礼)を軽減し、社会的な隔たりを超えて困難な会話をする意欲を高めてくれることを示している。
さらに、すでに実用的なアプリケーションも存在する。コミュニティベースのソーシャルメディアプラットフォームであるネクストドアは、オンライン上の有害性を排除するのに苦労してきたが、こうした研究に触発され、インシビリティを軽減するための大規模な取り組みを最近開始し、成功を収めている。
ほとんどの人は、対立をうまく切り抜けるのが苦手だ。私たちは他者を説得する能力を過大評価したり、話がかみ合わなかったり、ストレスの多い議論を完全に避けたりする。しかし、社会科学は対立の仲裁に関する豊富な証拠を生み出してきた。アクティブリスニングやパースペクティブテイキング(相手の視点で考えること)といったテクニックを身につければ、自分の言いたいことが伝わりやすくなる。しかし、そのような訓練には時間と費用がかかり、一般的に対立を回避する傾向のある人々には届かない。
『米国科学アカデミー紀要』(PNAS)に最近掲載された研究で、筆者と同僚は、大規模言語モデル(LLM)が対立を仲裁するテクニックを人々に広く教えることができるかどうかを調べた。銃規制について異なる意見を持つ人々を大勢集め、筆者らが構築したオンラインチャットプラットフォーム上でペアになり、意見を共有しない人とこの話題について話し合ってもらった。
プラットフォームで何度かメッセージをやり取りした後、研究参加者の半数が、チャット相手に送ろうとしているメッセージの代替表現を提案するポップアップメッセージを受け取った。このメッセージはGPT-3を使い、対立仲裁の原理を用いて、投稿で示された意見は変えずに言い換えたものだ。参加者は、言い換えられたメッセージを送るか、無視するかを選択することができた。
GPT-3は、困難な会話を円滑にする目的に対して、驚くほど優れていることが明らかになった。AIが生成した言い換え表現をパートナーが使用した場合、参加者は、会話がより生産的でストレスは少なく、別の視点を考慮する意欲が高まったと述べた。筆者らの介入はオンラインの会話の礼儀正しさを向上させたが、銃規制に関する人々の意見をすぐに変えることはなかった。しかし、それはよいことかもしれない。ユーザーに強い説得力を与えるAIは、悪用されれば大混乱を引き起こす恐れがあるからだ。
筆者らの研究が行われたのは、チャットGPTが公開される1カ月前で、生成AIに対する社会的関心が高まるずっと前だ。しかも、GPT-3がやや人為的な設定において、一つの問題についての会話を円滑にするかどうかを調べたにすぎない。したがって、次の疑問は明らかだった。同じようなツールは現実世界で対立を減らすことができるのか。