
-
Xでシェア
-
Facebookでシェア
-
LINEでシェア
-
LinkedInでシェア
-
記事をクリップ
-
記事を印刷
AIに「人間らしさ」は本当に求められているか
AIは私たちの生活や仕事のあらゆる部分に入り込みつつあり、その見た目や話し方がますます人間に近いものになっている。自然なイントネーションで会話ができるバーチャルアシスタントから、人間の表情を再現するデジタルアバターまで、AIの外見や行動は人間に似てきている。
たとえば、オープンAIは最近、チャットGPTのアドバンスト・ボイス・モードを発表した。本物の俳優による、いきいきとした口調、自然な会話、感情反応を用い、AIの音声を「温かみ、魅力、信頼性、カリスマ性のある」ものにすることを目指している。同様に、2番目に人気の高い生成AIアプリであるCharacter.aiでは、「図書館員のリンダ」やイーロン・マスク、さらにはナポレオン・ボナパルトといった架空の人物や歴史上の人物と交流することができる。
AIは人間の顔や声を持つほうが好まれ、信頼されると、ほとんどの企業が考えているようだ。その感覚はたしかに、AIの擬人化が消費者の信頼向上に効果があるという一部の科学的証拠と一致している。
しかし、これが人間にとってAIを受け入れやすく、信頼しやすくするベストな方法なのだろうか。筆者らは擬人化が最適なアプローチではない可能性があり、意図しない結果を招く可能性さえあると考えている。
たとえば、人間のようなAIをつくると、現実的ではない能力を期待し、期待外れだった時に失望や不満につながる可能性がある。最近の研究では、顧客がすでに怒っている場合、擬人化されたチャットボットは顧客満足、企業評価、購入意向を低下させることがわかっている。この反応は、過剰な期待が裏切られたことによるものであり、簡単に言えば、消費者は人間のようなチャットボットに期待をしすぎて、期待に応えられなかった時に失望するのである。
別の研究では、コンピュータゲームをしている時に、擬人化されたヘルパーからアシストを受けた場合、プレーヤーは擬人化されていないヘルパーのアシストを受けた場合ほどゲームを楽しめなかった。人間のようなヘルパーが、ゲームを楽しむ上で重要な要素であるプレーヤーの自主性を損なうからだという。
AIを擬人化する試みは、「不気味の谷」現象につながる可能性もある。これは、人間にかなり近いが人間ではないAIに対して、親しみや共感よりも不安や不快感を抱く現象である。最後に、AIを擬人化するということは、AIの性別や人種を決めることを意味し、それが(意図せずして)有害なステレオタイプを永続させる可能性がある。これを未然に防ぐため、バーチャルアシスタントに中性的な声を用い始めているソフトウェア開発者などもいる。
では、AIをより受け入れやすくするためには、どのような方法が考えられるだろうか。重要なのは、AI開発の背景にある人間のインプットを強調することである。
実証的証拠
この考え方を検証するために、筆者らは5つの実験を実施した。そのうちの一つは、参加者に写真をアップロードさせ、AIコーチから写真技術の向上に役立つフィードバックを受け取るというものである。参加者を無作為に3つのグループに分け、実験群に対しては、AIコーチの開発における人的要素を強調した。具体的には、「AIコーチは人間のデータサイエンティストと写真の専門家のチームによって開発された」という説明文を読ませた。第1の対照群に対しては、AIコーチとともに人間の名前と写真を表示し、人間的な要素を持たせた。第2の対照群に対しては、人間的な要素を完全に排除し、「AIコーチは機械学習アルゴリズムに基づいて開発された」という説明文を読ませた。
次に、参加者にコーチからのフィードバックを与えた。フィードバックは個別に調整されているように見えるが、実際には全員同じ内容(自然光の使い方や背景のオブジェクトの選択についてなど)が与えられた。その後、フィードバックがどの程度役に立つと感じたかを参加者に評価させた。