
-
Xでシェア
-
Facebookでシェア
-
LINEでシェア
-
LinkedInでシェア
-
記事をクリップ
-
記事を印刷
生成AIのリスクに特化したガイドラインの必要性
企業リーダー、学者、政策立案者など、数え切れないほどの人々が、学習や仕事のあり方を根本的に変える可能性を持つ、生成AI技術の活用法を模索している。ビジネスにおいても、生成AIは、企業と顧客の関わり方を一変させ、ビジネスが成長する原動力になる可能性を秘めている。
セールスフォースが行った新たな調査によると、シニアITリーダーの67%が、生成AIを今後1年半以内の自社の優先事項、3分の1(33%)が最優先事項として掲げている。企業各社は、営業、カスタマーサービス、マーケティング、コマース、IT、法務、人事など、ビジネスのあらゆる領域でどのような影響をもたらしうるかを模索している。
しかし、従業員が生成AIを利用する際には、信頼できるデータセキュリティの確保が必要である。シニアITリーダーの79%が、セキュリティ上のリスクを不安視し、さらに73%が生成情報の偏りを懸念している。もっと広く言えば、企業は、倫理的かつ透明性のある方法でこの技術を利活用する必要性と責任を認識しなければならない。
法人として生成AI技術を利用する企業は、個人利用する消費者と同じというわけにはいかない。自社が関係する業界(たとえば医療など)の法規制を遵守する必要があり、生成されたコンテンツが不正確であったり、利用に支障があったり、人に不快感を与えるものだったりすると、法的、金銭的、倫理的な問題になりかねない。
たとえば、生成AIチャットボットが料理の手順を間違って教えた場合の損害リスクは低いが、出張修理の作業員に重機の修理内容を指示するとなると、リスクははるかに高くなる。明確な倫理的指針に基づいて設計・導入しなければ、意図しない結果をもたらし、実害が生じる可能性もあるのだ。
企業は、どのように生成AIを利用するのか、そしてその目標と、ビジネスとして「片付けるべき用事」との整合、つまり生成AIが販売、マーケティング、コマース、ITなどの業務にもたらす影響に関する、明確で実行可能なフレームワークを必要としている。
2019年、セールスフォースは倫理的なAIツールの開発の手引きとなることを目的とした、「信頼できるAIの原則(透明性、公平性、責任、説明責任、信頼性)」を発表した。AIに投資するあらゆる企業に適用できる。しかし、企業が倫理的AIの原則を、AI技術の開発や導入の実務に落とし込んでいなければ、それまでである。
成熟した倫理的AIの実務とは、製品管理、データサイエンス、エンジニアリング、プライバシー、法務、ユーザー調査、デザイン、アクセシビリティなどの分野を統合し、AIの潜在的な害を軽減し、社会的便益を最大化する責任ある製品開発と展開を通じて、その原則や価値を実践することだ。このような実務を企業が始め、成熟させ、拡大させるに当たっては、複数のモデルがあり、そうしたモデルは、倫理的なAI開発のためのインフラ構築の方法について明確なロードマップを示している。
しかしセールスフォースは、生成AIが主流となり、利用しやすくなったことで、この技術固有のリスクに特化したガイドラインが必要だと気づいた。このガイドラインは、セールスフォースのAI原則に取って代わるものではなく、企業が生成AI技術を使用した製品やサービスを開発する際に、原則をどのように運用し、実践できるのか、その方向性を指し示すものである。
生成AIの倫理的開発のためのガイドライン
セールスフォースが新たに提示するガイドラインは、生成AIが主流として導入されるにつれ、企業が生成AIツールのリスクや注意点を評価するのに役立つ。本ガイドラインは、以下の5つの重点領域を対象としている。
正確さ
正解率、適合率、再現率(モデルが特定のデータセット内で正答をまさしく識別する能力)のバランスの取れた、検証可能な結果を提供するために、企業は自社のデータでAIモデルを訓練できる必要がある。生成AIの回答に関して不確実な部分がある場合には、それを伝え、情報の利用者が検証できるようにすることが重要だ。そのためには、モデルが作成したコンテンツの情報源を挙げ、不確実な部分についてAIがそのように回答した理由を説明し、一部のタスクが完全に自動化されるのを防ぐ予防策をつくらなければならない。
安全性
AIにおいては、バイアス、説明可能性、堅牢性を評価して、偏見や悪意のある出力、有害な出力を軽減するためにあらゆる努力をすることが、常に優先事項となっている。企業は、危害や損害の発生を防ぐために、訓練に使用するデータに存在する個人識別情報のプライバシーを保護しなければならない。さらに、セキュリティ評価を行い、バッドアクター(攻撃者)に悪用される可能性のある脆弱性(チャットGPTのガードレールを無効にする「do anything now」というプロンプトなど)を特定することが有効である。
誠実さ
モデルを訓練し評価するためにデータを収集する時は、データの出所を尊重し、データの使用に関する同意があることを確認する。これは、オープンソースやユーザーから提供されるデータを活用することで実現できる。また、自律的にアウトプットを提供する場合には、AIが作成したコンテンツであることを明らかにする透明性が求められる。これは、コンテンツに透かしを入れたり、アプリ内メッセージングを使ったりする方法で実現できる。
エンパワーメント
プロセスを完全に自動化することが最善のケースもあるが、多くの場合、AIは補助的な役割を果たすべきである。現在の生成AIは、優秀な「アシスタント」である。金融やヘルスケアなど、信頼構築が最優先される業界では、AIモデルが提供するデータに基づくインサイトの助けを借りながら、人間が意思決定に関与することが、信頼構築と透明性維持のために重要である。さらに、モデルの出力は、誰もが利用できるようにする。たとえば、画像に代替テキストを添付すると、画面読み上げ機能を使って聞き取り可能になるといったことだ。そしてもちろん、コンテンツ提供者、クリエイター、データラベリングを行う人々に、誠意ある対応(公正な賃金、使用許可など)を行わなければならない。
持続可能性
言語モデルは、使用する値やパラメーターの数から、「大規模」と表される。このような大規模言語モデル(LLM)の中には、数千億のパラメーターを持ち、学習に多くのエネルギーと水を使用するものもある。たとえば、GPT3は、1.287ギガワット時、つまり米国の120世帯分の1年間の電力と、70万リットルの浄水を必要とした。
AIモデルを検討する際、大きければ大きいほどよいとは限らない。セールスフォースが自社のモデルを開発する際には、大量の高品質なCRM(顧客関係管理)データでモデルを訓練することで、精度を最大化しながらモデルのサイズを最小化するよう努めている。これにより、必要な計算量が少なくなるため、データセンターの消費電力と二酸化炭素排出量が削減され、カーボンフットプリントの削減につながっている。