
大規模言語モデルの出現で変わる人間の意思決定
人工知能(AI)の本質は、予測マシンだ。今日の降水確率がどれくらいかは教えてくれる。けれども、傘を持って出かけるべきかどうかは教えてくれない。それは、傘を持って出かけるかどうかという決定が、予測だけでは決まらないからだ。たとえば、降水確率が10%の場合、傘を持っていこうと思う人もいれば、そう思わない人もいる。
同じ情報を示されたとしても、このように人によって行動が異なる場合があるのは、なぜなのか。それは、人によって嗜好が異なるためだ。このケースでいえば、雨に濡れることをどれくらい嫌だと思うかは人によって異なる。あなたが傘を持って出かける場合のコストと便益を判断できるのは、あなた自身、もしくはあなたのことをよく知っている人だけだ。したがって、傘を持っていくべきかどうかの決定を下すためには、降水確率の予測と、あなたの嗜好に基づく判断の両方が必要になる。
AIは、予測能力こそ傑出しているが、判断は下せない。たしかに、実際には、ある行動を取った場合の「報酬」が火を見るより明らかだったり、簡単に知ることができたりするケースも少なくない。ほとんどの状況で自動車の運転者がどのような行動を取るべきかは、基本的に誰もが知っている。アクセルを踏むべきタイミング、ブレーキをかけるべきタイミング、方向転換すべきタイミングは、ほぼ明白といってよい。それは、適切な行動を取らなかった場合に、どのような結果を招くかがわかっているためだ。
しかし、新しい食器洗い機についてグーグルに助言を求めても、せいぜい、どこを見ればあなたのほしい情報が載っている可能性が高いかを教えてくれるだけだ。あなたがどのような行動を取るべきかは、教えてくれない。また、あなたは勤務先の会社がAIを活用して、自分を解雇するのではないかと心配しているかもしれないが、機械がその決定を下すことはない。AIは、あなたの仕事の成績について予測を示すかもしれないが、その予測をもとに誰を解雇すべきかを判断するのは、あくまでも雇用主だ。
以上のような理由により、筆者らは2018年の著書『予測マシンの世紀』で、「報酬関数エンジニア」という職種の出現を予測した。この職種は、「AIの予測をもとに、ある行動がもたらす報酬を判断する」ことを役割とする。多くの場合、報酬関数エンジニアは、AIの予測を活用することにより、判断の質を高められる可能性がある。AIの採用が加速すれば、このような方法によって導き出される判断の質もいっそう高まるだろう。
問題は、報酬関数工学のイノベーションのペースがこれまでゆっくりとしたものに留まってきたことだ。この種の機能を大々的に導入するためには、その前にしかるべき人間の判断をコード化して機械に与える必要があるが、そのためのツールの開発はほとんど進展してこなかった。
しかし、ここにきて状況が変わり始めた。大規模言語モデル(LLM)は、一見すると立派な知性を持っているように見えるかもしれないが、まだ予測マシンの域を出ていない。それでもLLMは、AIが人間の意思決定を支援する方法を様変わりさせつつある。LLMの出現により、人間が判断を下す方法が大きく変わろうとしているからだ。
対話型AIの「チャットGPT」に、特定の読者層に向けて、ある文章をより明確に書き直すよう指示するとしよう。その場合、チャットGPTは、あなたに選択肢を示したり、文法やレトリックに関するレクチャーをしたりはしない。端的に、完成した文章を示す。その文章の質は極めて高いが、真の奇跡というべきなのは、単に文章の質が高いだけでなく、チャットGPTがあなたの望み通りの文章を作成することだ。
文章を書く過程では、数え切れないほど多くの報酬とリスクの問題について判断しなくてはならない。たとえば、その文章の内容は正直か(事実に反していないか)、有害な内容ではないか(誰かの気分を害する言葉が含まれていないか)、有益な内容になっているか(文章の目的を達成できるか)といったことを判断する必要がある。