生成AIへの不安に、企業はどのように対処すべきか
HBR Staff; Mensent Photography/Getty Images; Midjourney
サマリー:リーダーは、生成AI(人工知能)の導入に際してプレッシャーを感じている。生成AIは、多くの深刻な倫理リスクをもたらす可能性があるからだ。しかし、それらはすべての企業に当てはまるわけではない。ほとんどの企業... もっと見るが直面せざるをえない倫理リスクに目を向け、適切に対処することが重要だ。本稿では、全業界に共通するAI導入における4つの倫理リスクを紹介し、それらへの適切な対策を解説する。 閉じる

リーダーは何に注意すべきか戸惑っている

 あらゆる業界のリーダーたちが、生成AI(人工知能)のソリューションをどこに導入できるか見つけ出すよう取締役会とCEOからプレッシャーをかけられている。その理由はお馴染みのものだ。一方では新たな機会を活かそうという興奮があり、他方では競争に後れを取ることへの恐怖がある。

 だが、イノベーションが推し進められる中で、もっともな不安もある。

 サムスンはチャットGPTの使用を禁止した。従業員によって会社の機密データがチャットGPTのプラットフォームにアップロードされ、のちにそれが流出したことを受けての措置だ。AIが差別的なアウトプットを生む傾向は十分に立証されているが、これは生成AIにも当てはまる。

 一方、生成AI企業は訴訟に直面している。画像を生成するステーブル・ディフュージョンはゲッティイメージズに訴えられマイクロソフト、ギットハブとオープンAIは集団訴訟を起こされている。

 コンピュータ科学の権威であるジェフリー・ヒントンや、ディープラーニングの権威であるヨシュア・ベンジオといった「AIのゴッドファーザー」と呼ばれる面々、オープンAIのCEO、サム・アルトマンなどを含め、この技術に携わる人々と企業も警鐘を鳴らしている。彼らの主張によれば、近い将来に人間はAIによって絶滅の危機に立たされるか、少なくともロボット君主に支配される可能性があるという。

 ほかにも、米大統領選の直前に高度な偽情報キャンペーンを仕掛けるのがいかに容易かを警告する声もある。人間の労働者がAIに置き換えられることで生じる、経済的破滅の可能性を警告する人もいまだにいる。

 筆者がこの数カ月にわたり企業のクライアントに助言を行う中で気づいたのは、技術系と非技術系どちらの企業リーダーも、何に注意すべきか戸惑っているということだ。耳障りな警告が彼らを混乱させ、心配させている。生成AIはデータサイエンティストだけでなく、社内の誰もが使えることを踏まえれば、なおさらだ。

 あるクライアントは、AIの倫理リスク対策プログラムが必要な理由を説明する中でこう言った。「何かが炎上しているのではなく、社内の全員が火炎放射器を持っていることが問題なのです」

本当に憂慮すべきリスクは何か

 生成AIは多くの深刻な倫理リスクをもたらすものの、それらはすべての企業に当てはまるわけではない。その理由を以下に挙げる。

 第1に、AIが経済に及ぼす累積的な影響は大量の失業につながる、という説を仮に受け入れるとしても、特定の企業がそれを止める義務を負うわけではない。結局のところ、企業の責任に対する一般的な観点からいえば、従業員の雇用や維持は義務ではない。

 より効率的または安価なAIで人間を代替できる状況下、従業員の雇用を維持することは、倫理的には「よいこと」かもしれない(筆者も場合によっては、企業にそうするよう奨励する)。だが一般的には、それは倫理的「義務」とは見なされない。

 第2に、選挙に関する偽情報の拡散の脅威は、現代の民主主義が直面する最大のリスクの一つであることはほぼ間違いない。筆者の中でも当然トップ3に入る。しかし大半の企業は、個人や企業による情報の拡散を支援する業種には属していない。ソーシャルメディア企業でもない限り、このリスクがあなたの組織に関連するとは考えにくい。

 第3に、仮にAIが近い将来、人類存続の危機をもたらすとしても、それに対してあなたの組織ができることはほとんどない。もし何かができるのであれば、ぜひともそれを実行してほしい。

 これらはひとまず脇に置くとして、ほとんどの企業が直面せざるをえない倫理リスクに目を向けてみよう。

 企業は最初に、次のことを問う必要がある。

1. 生成AIと非生成AIで共通する倫理リスク、レピュテーションリスク、規制上のリスク、法的リスクは何か。

2. 非生成AIと比較して、生成AIに特有か、または生成AIによって悪化する倫理リスク、レピュテーションリスク、規制上のリスク、法的リスクは何か。

 1つ目の問いについて、非生成AIは、バイアスや差別を伴うアウトプットを生みやすい。また、ブラックボックス問題として知られるように、説明できない方法でアウトプットを生むこともある。そして他者のプライバシーを侵害するデータを学習し、生成する可能性がある。

 非生成AIの倫理リスクは、各ユースケースに固有である場合が多い。組織が直面する倫理リスクの種類は、非生成AIが実装されているさまざまな状況によって異なるためだ。

 非生成AIに伴うこれらの倫理リスクはすべて、生成AIにも共通する。

 画像生成とテキスト生成のツールはともに、アウトプットにバイアスが見られる。ブラックボックス問題に関しては、なぜアウトプットがこれほど優れているのかをデータサイエンティスト自身も説明できない。また、生成AIのモデルはインターネットからかき集めたデータで学習しているため、そこには個人情報と、人や組織の知的財産であるデータが含まれる。

 最後に、非生成AIと同様、生成AIについてもユースケースごとに固有の倫理リスクがある。ただし一筋縄ではいかないのは、生成AIが汎用AIであることだ。つまり、あらゆる業界で、数え切れないほど多くのユースケースが生じる。

 それだけでなく、組織はいまや、これらの新しいツールを利用できる数千人(数万人や数十万人とまではいかなくても)の従業員を抱えている。データサイエンティストとエンジニアによって設計されたAIの各ユースケースごとの倫理リスクに加えて、従業員がAIを使う可能性のある無数の状況についても、組織は理解しなくてはならない。

 このことが2つ目の問いにつながる。非生成AIと比較して、生成AIに特有か、または生成AIによって悪化する倫理リスク、レピュテーションリスク、規制上のリスク、法的リスクは何だろうか。