
-
Xでシェア
-
Facebookでシェア
-
LINEでシェア
-
LinkedInでシェア
-
記事をクリップ
-
記事を印刷
生成AIの潜在的な問題を分類してリスクを軽減する
2023年春にガートナーが企業幹部2500人に実施したアンケート調査によると、自社に生成AI(人工知能)をどのように取り入れるかを模索していると答えた回答者は約70%に上った。そして最近発表されたスタンフォード大学の「AIインデックスリポート」では、世界のAI導入率は調査対象地域のすべてで前年より上昇したことが報告されている。
マイクロソフトやセールスフォースをはじめとするテック大手は、すでに生成AIを自社製品の多くに組み込んでおり、最近では企業向けに、大規模言語モデル(LLM)のカスタマイズ版の構築オプションを提供することに注力している。香味料と香料を製造販売するスイスのフィルメニッヒから、コカ・コーラのマーケティングチームまで、企業はこれらのツールが自社に新たな価値をもたらせるのか、それをどのように実現できるのかに強い興味を持っている。
とはいえ、無理もないことだが多くの組織はいまだに、プライバシーやセキュリティの脅威、著作権の侵害、アウトプットにバイアスや差別が含まれる可能性などの危険に関する懸念を理由に、生成AIアプリケーションの導入に二の足を踏んでいる。
生成AIの広範な普及に伴うマイナス面は、軽度に迷惑なもの(パーソナライズされたスパムなど)から、非常に壊滅的なもの(史上最大級のデータセンターを支えるために、脆弱な地域で水源が急速に枯渇するなど)まで多岐にわたる。
従業員による生成AIの使用を禁止している組織もある。たとえばアップルとサムスンは、潜在的に機密性の高いコードがAIプラットフォームにアップロードされ、機密情報流出の危険が生じたことを受け、チャットGPTの社内使用を(ソフトウェア開発チームによる使用は特に)禁止した。
各国政府は現在、生成AIとそのマイナス面を管理するための適切な枠組みと法律の策定に奔走している。つまり、企業は総じてこれらの問題に独力で対処しているわけだ。生成AIがもたらすリスクの種類は当然ながら一様ではなく、それらを理解して適切に管理する必要がある。
本稿では経営幹部向けに、生成AI活用環境における潜在的問題を分類して軽減する方法の大まかな枠組みを提案する。
生成AIリスクの青写真
筆者らは生成AIのリスクを、「意図」と「使用」という2つの要素に基づいて分類している。意図に関しては、生成AIの偶発的な誤用と、故意の違法行為を区別する。同様に使用に関しては、生成AIツールを使ってコンテンツを作成することと、他者によって生成AIで作成された可能性のあるコンテンツを消費することを区別する。このフレームワークが浮き彫りにする4種類のリスクは、それぞれ異なる問題を突きつける。