では、AIを「何ができるか」で定義してはどうだろう。
結局のところ、コンピュータにできるのは、よく理解され、明確にされた機械的なタスクだけだ。ひとたびマシンがそれをできるようになると、その「偉業」は急速に魅力を失い、それができるコンピュータは「知的」に見えなくなる。少なくとも、「AI」という言葉が示唆する全能的な「知能」ではなくなる。コンピュータがチェスをマスターした時点で、AIを「解き明かした」という感覚はなくなってしまうのだ。
これは「AI効果」と呼ばれるパラドックスで、「マシンにできるならそれは知的タスクではない」という感覚をいう。AIの定義は、常に「ゴールの場所が動かされる」事態にさいなまれ、意図せず「コンピュータにとっては難しいことをコンピュータにやらせる」ことと同義になってしまう。人工知能(artificial intelligence)ならぬ人為的な不可能(artificial impossibility)だ。どのような目的地も、到達してしまうと満足できなくなる。
こうしてAIは、断固として定義を逃れてきた。コンピュータ科学のパイオニアである故ラリー・テスラーが、かつて、AIを「マシンがまだやっていないことすべて」と定義してはどうかと提案したことは有名だ。
皮肉にも、
AGIにすべてを賭ける
AIの定義のジレンマを克服する方法が一つある。それは、AIをAGI、
もし、このSF小説のような目標が達成されたなら、AIは「知的」と呼ぶにふさわしいという強力な主張ができるはずだ。それに、これは実用的ではないとはいえ、少なくとも理論的には測定可能な目標だ。たとえば、100万個のタスクをシステムのベンチマークに設定することができる。これには、
AGIなら明確な目標を設定できるだろう。だが、それは、とびきりの目標であり、とてつもない野望だ。そのようなことがいつか実現できるかどうかは、誰にもわからない。
そこに典型的な機械学習プロジェクトの問題点がある。それを「AI」と呼ぶと、AGIと同じレベルのもので、その方向に着実に向かっているテクノロジーに基づき構築されていると示唆することになる。「AI」は機械学習につきまとう。AIは、壮大なストーリーを想起させ、期待を膨らませ、現実にあるテクノロジーを非現実的な言葉で売り込む。それが意思決定者たちを混乱させ、プロジェクトを行き詰まらせる。
AIがAGIと同じ材料でできているなら、多くの人が、AIというパイの一切れにあずかりたいと思うのは理解できる。AGIが約束すること(ある意味で究極のパワーだ)は極めて魅力的で、抗うことは非常に難しい。
だが、さらによい方法がある。現実的で、十分にエキサイティングな方法だ。それは、主要なオペレーション(組織の主な業務)をさらに効率的にすることだ。たいていの商業的な機械学習プロジェクトは、まさにそれを目指している。
それをさらに高い確率で成功させるためには、さらに地に足をつけなければいけない。オペレーション上の価値をもたらすことを目指しているなら、「AI」を買ったり、「AI」を売ったりしてはいけない。自分が意図していることをありのままに言い、自分の言葉と意図を一致させよう。あるテクノロジーが機械学習によってできているなら、そのように言おう。
人間の知性が陳腐化するという報告は、著しく誇張されてきた。これは、AIに幻滅を覚える時代が再びやってくることを意味している。そして長い目で見ると、「AI」という言葉を大げさに使い続ける限り、私たちはこれからもAIの冬を経験し続けるだろう。
だが「AI」という言葉の乱用を控えれば(あるいはAIと機械学習を区別すれば)、業界としての機械学習を次のAIの冬から保護することができるだろう。そのためには、誇張に流される誘惑に抵抗するとともに、AIは万能だと信じて、目をキラキラさせる意思決定者らを肯定しないことが重要だ。さもないと、明らかに危険だ。ブームがしぼんで、過剰宣伝の嘘が暴かれ、冬が到来した時、機械学習の真の価値提案までも、神話とともに捨てられてしまいかねないのだから。
本稿は、バージニア大学ダーデンスクール・オブ・ビジネスにおける研究成果の一部である。
"The AI Hype Cycle Is Distracting Companies," HBR.org, June 02, 2023.