AIを理解することが、必ずしもAIを受け入れることにつながらない理由
HBR Staff Using AI
サマリー:AIは私たちの生活やビジネスを大きく変えつつあるが、その受容のされ方は一様ではない。新しい研究によれば、AIに詳しくない人ほど「魔法のような存在」と感じて積極的に導入しようとする一方で、AIに精通している人ほど関心を失う傾向があるという。本稿では、AIに関する知識を深めても導入が進むとは限らないという逆説的な発見を踏まえ、企業の採用戦略や商品開発、マーケティングに対する意味を説明する。

AIへの理解が深まると、AIへの関心が弱まる

 AIはいまや影のアシスタントとして、私たちがどのように情報を検索し、スクロールし、買い物をし、仕事をするかに、ひそかに影響を与えている。AIはメールの下書きを作成し、フィードを選別する。教育や医療、職場においても、意思決定を導くようになっている。AIがますます商品やサービスに組み込まれていく中で、重要だが見過ごされがちな疑問が浮かび上がる。なぜある人々はAIを熱心に受け入れる一方で、他の人々はためらいを見せるのか。

 筆者らは2025年前半に『ジャーナル・オブ・マーケティング』誌に発表した新しい論文で、ある意外なパターンを明らかにした。それは、人はAIとその仕組みについて知れば知るほど、AIを積極的に受け入れにくくなるというものだ。このパターンは、2つのデータセットを組み合わせて検討することによって浮かび上がってきた。一つは世界各国のAIリテラシーを測定したデータ(トータス・メディアによる「AI人材」のレベルの評価に依拠)、もう一つはAIの使用に対する国レベルの関心を測定したデータ(市場調査会社イプソスの調査)である。

 それによると、全体的にAIリテラシーが低い国の人々はリテラシーレベルが高い国の人々に比べて、AIの導入を受け入れやすい傾向があった。さらに、米国在住の数千人(大学生や、年齢・性別・民族・地域分布において米国を代表するように選ばれたオンラインサンプルを含む)を対象とした他の6つの研究でも、一貫して、AIリテラシーが低いとAIへの受容性が高いことが予測されるという結果が出た。

 筆者らの研究では、AIの知識が比較的乏しい人々のほうがAIへの関心が高いのは、彼らがAIの能力や倫理性を高く評価しているからではないことがわかった。むしろその逆で、リテラシーの低い人はAIの能力を低く評価し、倫理的にも問題があると見なしていた。にもかかわらず、自分自身が使用しており、他の人々も使用することを望む傾向があった。

 この意外な結果を、どう説明できるだろうか。つまるところ、人々がAIをどう認識しているかによるのだ。AIの知識があまりない人は、AIがタスクを遂行するのを想像すると、まるで魔法のように感じられて驚嘆する。この「魔法」という感覚が熱意をかき立てる。

 だがAIリテラシーの高い人は、アルゴリズムやデータトレーニング、計算モデルといったメカニズムを理解しているので、AIに神秘的なものを感じない。マジックの仕掛けを知っている時のように、知識があればそれはもう不思議ではなくなるということだ。そして、AIを使うことへの興味も薄れる。

 AIの使用に対して関心の差がいっそう顕著なのは、詩を書く、作曲する、ジョークを言う、アドバイスを提供するなど、一般に人間特有と見なされるタスクである。こうした創造性と感情に関わる領域では、AIリテラシーの低い人は、特にAIが魔法のように見えて、進んで委ねようとする。一方、大量の演算やデータ処理などロジックに基づくタスクでは、AIがどのようにタスクを処理するかが明白なので魔法が消え、この傾向は弱まり、むしろ逆転することさえある。

 これまでは、教育すればおのずとテクノロジーの導入が進む、というのが中心的な前提だったが、こうした研究結果はその前提に疑問を投げかけている。現実には、AIについての知識が増すほど、AIを搭載した商品やサービスへの関心が薄れる可能性があるのだ。

 筆者らの研究は、消費者のAIに対する関心と導入に焦点を当てているが、どのような人がなぜAIを受け入れるのかを理解することは、組織の採用戦略や商品設計、マーケティングなど、幅広いビジネス上の意思決定にとっても重要な意味がある。どのように役立てられるかを以下で説明したい。

マネジャーや従業員のAIリテラシーを評価すること

 マネジャーや従業員のAIに対する考えは、自身のAIリテラシーのレベルに影響される可能性がある。AIリテラシーが低いと、人材採用、会計、商品設計、マーケティングといった業務領域において、たとえAIが最適な解決策でなくても、AIを受け入れやすくなる傾向がある。一方、AIリテラシーが高い人は、より十分な情報に基づき、感情に左右されない見方を持つため、より慎重になり、興味を示さないことさえある。それはAIが劣っていると思うからではなく、それほど新規性や変革性を感じないからである。

 マネジャーが自分自身とチームのAIリテラシーを理解すれば、AI導入の取り組みを適切に調整し、過度な熱中も不十分な活用も避けることができる。そのため筆者らは、リーダーが自身のリテラシーを評価し、盲点を明らかにするための無料ツールを公開した。これは、戦略、人員配置、顧客の信頼といった重要なビジネス上の選択に影響が及ぶのを事前に防ぐためである(このツールで収集されたデータは、学術研究のためにのみ使用され、完全に匿名化される)。

最もテクノロジーに精通したユーザーが最も受容的だと思い込んではならない

 AIツールの構築やマーケティングに携わっている人は、この研究結果に立ち止まって考えさせられるだろう。それは、ターゲット市場の中で最も技術的に洗練されている人々、たとえばAI関連の学位を持つ人が、必ずしも最も受容的とは限らないことを示しているからである。とりわけクリエイティビティやコーチングの領域では、ターゲットの中で最もリテラシーの低い顧客が、最も熱心な導入者となる可能性がある。

利用者のリテラシーレベルに合わせてマーケティングせよ

 メッセージを効果的なものにするためには、企業はまずターゲット層のAIリテラシーを評価する必要がある。たとえば調査アンケートや顧客へのインタビュー、行動指標(テクノロジー関連のフォーラムの利用、これまでの製品使用パターンなど)によって評価できる。筆者らが開発したツールなども、リテラシーを短時間で測定し、セグメンテーションの指針を提供することができる。

 AIのユースケースの中には、当然ながら、AIに精通した消費者により適したものもある。たとえば、ソフトウェアエンジニアは、コード作成のためにギットハブ、コパイロット、カーソルなどの生成AIモデルを用いたり、AIエージェント作成のためにグーグルのバーテックスAIを用いたりしている。もしターゲット顧客がAIに精通しているならば、AIの導入を促すために「驚き」の要素に頼るべきではない。むしろ、その能力、性能、倫理性を強調すべきである。逆に、AI製品のターゲット層が平均的な消費者であり、価値提案に驚嘆を喚起する要素が含まれているならば、過剰な詳細の技術的説明によって神秘性を失わせてはならない。

多様なリテラシーレベルを念頭に置いて製品を設計せよ

 ユーザーはテクノロジーをしっかりと理解し、高度なUXデザインを使いこなせる、あるいは顧客はAIの使用に当たって最大限の自主性を求めている、とあなたは思うかもしれない。だが、多くのユーザーが求めているのは、平易さ、明快さ、そしてガイダンスである。効果的な導入支援と直観的なUXがカギを握る。たとえば、チャットGPTの成功は、バックエンドの仕組みよりも、一般的なユーザーにとって利用しやすいと感じられたことによるところが大きい。

透明性と誠実さを確保すること

 この研究結果を、消費者に情報を与えずにおけという呼びかけと解釈してはならない。AIの持続可能で責任ある使用のためには、AIが人間の判断をサポートあるいは代替するために使用された場合のトレードオフを、消費者に知らせなくてはならない。特に人材採用、医療、教育など、失敗した場合のリスクが大きい領域がそうだ。たとえば、AIシステムは既存のバイアスを反映または増幅することがあること、出力結果はAIのトレーニングに使用されたデータに影響されること、「自動化」は無謬や中立を意味しないことを知らせる必要がある。AIに対する直観的な印象に頼りすぎると、誤用や誤った信頼、倫理的逸脱につながりかねない。企業は、消費者の幸福に影響しうるあらゆる要因について、消費者に知識を提供しておく必要がある。

「魔法」の感覚は、初めは熱意をかき立てるかもしれないが、もしAIがサービスを受ける消費者に真の益をもたらさなければ、それが裏目に出ることも多い。魔法であるかのように売り込まれたのに、AIが実際にはメリットをもたらさないならば、ユーザーは失望するか、だまされたと感じるだろう。それは信用の失墜を招きかねない。

結論

 AIは私たちの学び方、働き方、意思決定の方法を再構築しつつある。だが、人間とAIの関係は、AIが何をできるかだけでなく、私たちがAIをどう捉えるかによっても左右される。AIは新しいツールなので、消費者、従業員、マネジャーなど多様な人々がAIをどう認識しているか、そしてその認識がグループごとにどう異なるのかを理解することが、私たちにとって極めて重要なステップの一つである。


"Why Understanding AI Doesn't Necessarily Lead People to Embrace It," HBR.org, July 11, 2025.