
-
Xでシェア
-
Facebookでシェア
-
LINEでシェア
-
LinkedInでシェア
-
記事をクリップ
-
記事を印刷
世の中は過ちに対して寛容ではない
生成AI(人工知能)の出現は企業に対し、大きなリスクと大きな見返りの両方を伴うパラダイムシフトをもたらす可能性がある。非常に高い生産性向上が期待できる一方で、生成AIとともに未知の領域を歩んでいくことのリスクも同等に大きい。このテクノロジーは進化が非常に速いため、運用していく中で問題が露わになるが、生成AIの倫理的な使い方をめぐる文化的規範については、まだ議論の途中である。
だからといって、その過ちに対して世間が寛容なわけではない。ニュースは生成AIの起こした問題を伝える見出しであふれている。全米摂食障害協会のヘルプラインが不適切な減量の助言を提供したり、バンダービルト大学の職員が学生銃撃事件への哀悼メールをチャットGPTで作成して批判を招いたりと、枚挙に暇がない。
そうした中、イノベーションのペースは猛スピードで加速している。チャットGPTは2カ月で1億ユーザーを獲得したが、これはネットフリックスが10年、グーグル翻訳が6年半を要した偉業である。
企業はどうすれば、生成AIのメリットを試しながら、顧客と従業員と世間の信頼を維持し、社会の全員に恩恵をもたらすことができるのだろうか。筆者は複数の企業の信頼と安全の専門家、およびAI倫理学者に話を聞き、この課題にどう取り組んでいるのかを探った。
信頼の4つの側面
信頼とは、相手の意図や行動に自分が影響を受けてもよいと思う気持ちである。端的に言えば、事業を行ううえでの免許のようなものだ。顧客は、信頼できる方法で生成AIを使う企業から購入したいと望む。従業員も、そのような企業で働くことを望む。