責任あるAIと収益性は両立できる
Boris Zhitkov/Getty Images
サマリー:企業が責任あるAIの重要性を認識する一方で、実際の導入や運用は限定的なものに留まっている。筆者らの研究では、金融AI商品においてプライバシーや監査可能性が消費者に強く支持される要素であることが示された。こ... もっと見るれらは商品選択や信頼性に直結し、収益性との両立も可能であるため、企業は責任あるAIを単なる機能ではなく、ブランド戦略やリスク管理にも統合すべきだ。本稿では、消費者調査と実証研究を通じて、責任あるAIの実装に向けた指針を示す。 閉じる

責任あるAIに対する取り組みはいまだに限定的

『MITテクノロジーレビュー』誌が2025年に発表した調査によれば、責任あるAI(RAI)の重要性を認めているマネジャーは実に87%に上る。この認識はAIエコシステム全体に広がっているようで、スタートアップから大手テック企業まで、各社とも責任あるAIの原則を重視する姿勢を表明している。一見したところ、倫理的なAIが花開くルネサンスが間近に迫っているように思えるかもしれない。

 しかし、同じマネジャーのうち、責任あるAIを採用する準備が整っていると感じている人はわずか15%にすぎない。BCGのデータによれば、責任あるAIのプログラムを実際に導入している企業は52%と、過半数をわずかに超える程度だ。また、導入済みの企業の多くでも、小規模または限定的(79%)な取り組みに留まっており、責任あるAIプログラムの適切な管理や監督体制が整っていないケースが多い(70%)。責任あるAIをめぐっては、言葉と実際の行動の間にいまだ大きなギャップが存在しているのだ。

 このギャップの根底には、倫理的な配慮を贅沢なものと見なしたり、さらには財務業績と相反するものと捉えたりする、時代遅れのビジネスマインドセットがあるのかもしれない。AI技術の支配権をめぐる競争が容赦なく激化する中、企業はコスト要因と見なされがちな責任あるAIへの取り組みよりも、収益向上につながるAIの強化に積極的にリソースを割きたくなるものだ。だが、倫理的責任と収益性は両立しないという対立構造は、本当に存在するのだろうか。

経験的な証拠

 筆者らは、金融系のAI商品を題材に、この問いに関する検証を行った。具体的には、責任あるAIの要素をこれらの商品に組み込むことで、消費者の行動にどのような影響が生じるかを調査した。その際には消費者から収集した定性的データと定量的データの双方を活用した。

 まず、AI商品の採用を促す主要なデザイン要素を特定するために、ある程度構造化されたインタビューを行った。その結果、消費者が主に重視する商品デザインの要素として、以下の5点が浮かび上がった。

・監査可能性(Auditability):人間による監査を組み込むことで、 AIシステムのプロセスや意思決定を追跡・検証する能力。

・自律性(Autonomy): AIシステムが自立して作動し、人間の介入なしに意思決定をして行動を起こせる度合い。

・パーソナライゼーション(Personalization): AI商品が個々のユーザーの好みや履歴、ニーズに応じて機能や対応を調整できる能力。

・プライバシー(Privacy): AI商品がユーザーデータを保護し、機密性を維持することを保証する度合い。

・理解可能性(Understandability): AI商品がアウトプットの背後にある根拠を説明し、その仕組みをユーザーに理解させる能力。

 5つの要素の中で、監査可能性、プライバシー、理解可能性の3点については特に、責任あるAIとの強い関連が見られた。

 次に、計3268人の消費者を対象に、離散選択実験を用いた大規模な調査を3回実施した。この実験では、参加者はそれぞれ異なる要素が秀でている2つのAI商品を提示され、そのうちのどちらかを選ぶ。この手法の最大の利点は、「理想的」な要素の組み合わせを自分で選ぶことなく、異なる要素間で慎重にトレードオフを判断するよう求められる点にある。

 たとえば、高度なパーソナライゼーションが可能だが、プライバシー保護の度合いが低い商品と、プライバシーは保護されているが、パーソナライゼーションが限定的な商品のどちらを選ぶのか。こうした選択を通じて、参加者はプライバシーとパーソナライゼーションのどちらをより重視するかを判断するよう迫られる。

 この手法は、従来のアンケート調査よりも優れているとされる。従来の調査では、参加者が要素間の比較をしないまま、すべての要素を「重要」と評価してしまいやすいためだ。

 AIを用いた年金計画アプリを対象とした実験では、消費者の選択を左右する最大の要因はプライバシーで、平均重要度スコアは31%に達した。その次に監査可能性(26%)が続き、さらに自律性(23%)も重要な要素と見なされていた。一方、理解可能性(11%)とパーソナライゼーション(9%)の重要性は限定的だった。

 AIを活用した株式投資管理アプリを対象とした別の実験では、倫理的な懸念以上に重視される可能性のある要素──利用料金と運用成績──を加えた。すると、最も重視される要素は予想通り運用成績(29%)だったが、注目すべき点として、プライバシーの重要度が利用料金と同じ約20%に達した。その次が監査可能性(13%)で、自律性(10%)を上回る結果となった。一方、理解可能性とパーソナライゼーションの重要度はいずれも約4%と低めだった。

 これらの実験から得られた結論は心強いものだ。責任あるAIの要素を商品設計に組み込むことで、利用料金や運用成績といった要因が存在する場面でも、消費者の選択にプラスの影響を与えられるのである。

 さらに、追加シミュレーションでも、責任あるAIの要素が重視される傾向が浮き彫りになった。たとえば、責任あるAIの要素(プライバシー、理解可能性、監査可能性)を導入した年金計画アプリを選ぶと答えた人の割合は63.19%で、そうした要素を備えていないアプリの2.4%と比べて大幅に高かった(その他の条件を一定に保った場合)。

 投資管理アプリも同様で、たとえば、個人を特定できる形でデータを共有する代わりに、第三者とのデータ共有を完全にやめるなど、責任あるAIの要素を強化すると、採用率が27.5%高くなった。

 ただし、消費者が望む具体的な要素は一律ではない。特に重視されているのはプライバシーと監査可能性であり、これはデータセキュリティや倫理的な説明責任への懸念が広がっている状況と一致する。

 一方、少なくとも金融系のAI商品の文脈においては、理解可能性があまり重視されていないことも明らかになった。消費者にとっては、AIによる意思決定の詳細を理解することよりも、個人情報が安全に管理され、システムが説明可能な動きをしていることのほうが優先順位が高いのである。

責任あるAI戦略

消費者から信頼される責任あるAI商品を設計する

 筆者らの研究を通して、責任あるAIの要素──特にプライバシーと監査可能性──が強力な差別化要因となり、多大な経済的リターンをもたらす可能性があることが明らかになった。この結果は、難しいトレードオフに直面した際には、特に企業が商品設計におけるリソース配分を見直す必要があることを示している。

 商品マネジャーがよく直面するパーソナライゼーションとプライバシーのパラドックスを例に取ろう。消費者はパーソナライズされた体験を欲する一方で、そのために必要な個人情報の提供にはためらいを感じるものだ。そのような時、企業はカスタマイゼーションの強化とユーザープライバシーの保護のどちらを優先すべきだろうか。

 金融AI商品については、筆者らの研究から、答えは明確だ。プライバシーの価値は、パーソナライゼーションがもたらすメリットを大きく上回るのである。それにもかかわらず、多くの企業はいまだにパーソナライゼーションを重視し続けており、プライバシーへの意識向上という、最近の消費者調査にも裏づけられている消費者の変化を見落としている。

 もう一つの重要なトレードオフは、プライバシーとAIモデルの性能の間に存在する。マネジャーは、高度なAI性能とプライバシー保護は両立させられないと考えがちだ。

 デバイス上でのデータ処理に関する判断を例に考えてみよう。データをローカルに保持すればプライバシーは強化できるが、ハードウェアの制約によって、高度なAI性能は活用しにくくなってしまう。そのような時、最先端の機能を追求したくなる気持ちは理解できるものの、性能だけにこだわるのは短絡的だ。むしろ、プライバシーを優先しつつ、「それなりに高度」な性能を備えたモデルのほうがユーザーの期待に沿っており、選ばれる可能性が高まるかもしれない。

 この問題の解決策として、アップル・インテリジェンスの取り組みが参考になる。アップルはプライバシーと高性能のどちらかだけを選ぶ代わりに、ハイブリッド型のソリューションを編み出した。デバイス上で実行する小型の言語モデルをデフォルトとしつつ、必要な場合だけクラウドコンピューティングを活用するというソリューションである。

 同社はプライバシー保護のクラウド基盤「プライベート・クラウド・コンピュート」を通して、クラウドの計算能力をプラスアルファとして活用しながらも、エンド・トゥ・エンドの暗号化を維持し、高度なAI性能とプライバシー保護を見事に両立している。

 AI商品マネジャーが直面するもう一つの重要なトレードオフとして、監査可能性とコストの対立が挙げられる。AIの意思決定プロセスに人間の監視を導入すれば、人材やプロセス、ツールの整備に多大な投資が必要となり、コストがかさむ。しかし、出力精度の向上や継続的なモデルの改善、ユーザーによる採用率の向上といったメリットを組み合わせれば、投資に見合う経済的リターンが生み出される可能性が高い。

 最適なAI商品設計のカギは、こうしたトレードオフが自社の環境下でどのように作用するかを理解することにある。そのためには、筆者らが行ったような実験を自社の顧客を対象に実施して、最適なアプローチを探ることが有効だ。

 筆者らの研究のように、コンジョイント分析のソフトウェア(我々はソートゥースを利用した)を活用すれば、数百人規模の調査という比較的小規模な投資で、自社のターゲット層がどの要素を最も重視するのかを正確に把握することができる。

責任あるAIをブランドとビジネス戦略に組み込む

 責任あるAIの設計と同じように重要なのが、そうしたAIを選んだことを可視化し、信頼性を確立する努力である。アストラゼネカのように、自社の価値観や取り組みを伝えることは大切な第一歩だが、それだけで十分ではない。

 消費者やステークホルダーは、言葉だけでなく具体的な証拠を求めており、企業は信頼性を確立するために、単なる宣言を超えて、具体的な取り組みを進める必要がある。ISOによる責任あるAI認証など、第三者機関による認定を受けるのも、そのための手段の一つだ。

 また、責任あるAIをより広範なブランドの立ち位置に組み込むことも、信頼性と差別化の強化につながる。たとえばアップルは、ブランドの立ち位置を創造性からプライバシーへと戦略的にシフトさせた。同社はかつて「Think Different」という理念を掲げていたが、その後、消費者のプライバシー保護を重視する企業へのリブランディングを積極的に推し進め、「アプリのトラッキング透明性」をはじめとする多くの商品機能を通じて、その取り組みを強化している。

 責任あるAIを取り入れる企業は、それを個々の商品ごとの問題として扱うのではなく、ブランドの基本的な約束に組み込む必要がある。

 こうした考え方は、ブランドの立ち位置を超えて、より広範なビジネス戦略にも適用されるべきだ。企業は、倫理的な取り組みを自社と同じ水準で重視するパートナーやサプライヤー、協力企業と連携し、バリューチェーン全体を通して、責任ある組織という一貫したイメージを確立しなければならない。

 たとえば、テキストから画像を生成するAIモデルを活用した商品の場合、責任のある形で学習データを収集している開発企業と提携することが重要だ。たとえばアドビ・ファイアフライは、アドビストックの画像、オープンライセンスのコンテンツ、著作権が失効したパブリックドメイン素材のみを学習データとして使用している。

リスク管理とコンプライアンスの手法としての責任あるAI

 責任あるAIをビジネスの中核に積極的かつ誠実に統合することができれば、それが潜在的なリスクへの防波堤となってくれる可能性さえある。AIシステムは完璧ではなく、エラーや失敗は避けられない。だが、責任あるAIの原則をあらかじめ業務に組み込んでいる企業は、問題が発生した時に批判に耐えられる足場を築いておける。

 データ漏えいとの共通性を見てみよう。責任あるデータ管理を実践している企業は、漏えい時に受ける反発が大幅に小さいという研究結果がある。同様に、AIによる問題が発生した際にも、責任ある実践に誠実に取り組んできた企業と、表面的な口約束に終始していた企業では、消費者からの反応が異なる可能性が高い。

 さらに、責任あるAIへの取り組みは、進化する規制環境を見据えた先進的なアプローチでもある。EUのAI規制法に代表されるように、世界各国の規制当局がAIへの監視を強化する中、倫理的な基準を主体的に導入する企業ほど、規制の厳格化にスムーズに適応し、リスクを軽減させ、法的課題を回避しやすくなる。

 環境に配慮した商品や持続可能な取り組みは、「あると望ましいもの」から「市場の必須要件」へと進化した。責任あるAIも、同じような道をたどる可能性が高い。

 そうした流れを踏まえれば、現時点で責任あるAIに投資している企業は、倫理面でも、市場への対応という面でも先駆的な地位を確立することができる。

 つまるところ、イノベーションだけでなく、その背後にある倫理面にも注力することは、単なる理想論ではなく、技術的、社会的なトレンドを理解したうえでの判断なのである。今日の責任あるAIの分野におけるリーダーは、明日のマーケットリーダーとなって、先見の明の恩恵を享受できることだろう。


"Research: How Responsible AI Protects the Bottom Line," HBR.org, March 04, 2025.