いかにAIのアルゴリズムを
実際のビジネスに活用するか
スマートデータプレパレーションはSASだけに独特の技術なのでしょうか。
スマートデータプレパレーションだけに限れば他社でもできることでしょう。しかし、われわれの優位性は、スマートデータプレパレーションを含む「アナリティックスライフサイクル」を包括的に維持、管理をしているというところにあります。アナリティクスでAIのモデルを作って納品したら終わりではないということです。
どの企業も、AIのアルゴリズムを実際のビジネスに活用するところで苦労しています。アナリティクスライフサイクルを考えることで、そのもっとも重要なビジネスでの運用まで、SASは支援できると自負しています。
たとえば、『ハーバード・ビジネス・レビュー』の定期購読者の解約率を予測するモデルをつくったとしましょう。ここに顧客のデータがあり、どういうときに解約をしているのか、どういう属性や行動が解約に結びつくのかをアナリティクスで分析して、解約率予測モデルをつくります。普通ならモデルをつくって終わりですが、アナリティクスライフサイクルの考え方では、ここからが重要です。
モデルを実際にビジネスの現場で動かして、顧客のアクションがあったときに、そのモデルで予測をします。そして予測結果をフィードバックして、さらにモデルの精度が上がるように、つねにモニタリングし、リアルタイムのデータを入れながら、アップデートしていきます。
データがあり、調べたいこと、予測したいことがあり、データがなにを伝えているのか、その特性などを見極めたうえで、データから発見や洞察を得て、目的に合わせてモデルをつくり、実装して、リアルタイムのデータを入れながら運用し、結果はすべて蓄積し、モデルにフィードバックし、ビジネス自体の変更、あるいは顧客のデータが変更されたら、それに合わせて調整し、アップデートし、モデルを見直すというサイクルを繰り返すのです。
アナリティクスでもPDCAサイクルをまわすということですね。
AIはこれからますます"explainable"(説明可能)であること、高い透明性を求められます。予測モデルがあったとしたら、モデルがこうなっているのはなぜか、予測はなぜ間違えたのかを説明できなければなりません。われわれもAIのモデルの透明性を高める努力をしています。これまでAIはブラックボックスであると言われていました。そこに競争力の源泉があり、AIを開発する企業は、それを秘匿することで競争優位を保っていたのです。
しかし、これからますます多くのデータを処理しなければならず、パラメーターも増え、モデルはどんどん複雑に大きくなります。適用される対象も増えてきています。だからこそ説明責任を引き受けなければならないのです。
われわれは、どの層のどの部分が結果に反映されたのかということを明らかにしています。どのデータセットがどのようにモデルに影響をあたえたのか、どこをどう変えたから今の結果になったのか。ディープラーニングやニューラルネットワークは、もっともその中身を明らかにしにくいものです。
それでも中立的なモデルをつくって、データを入れて試すなど、さまざまな技術や方法論を駆使して、モデルの透明性を高める努力をしています。
たとえば、住宅ローンの信用スコアのモデルでは、モデルそのものは開示されませんが、この属性がもっとこうなれば、信用リスクは高く、あるいは低くなりますよ、などという説明はできます。これもモデルの透明性を高めることに当たるでしょう。また、予測に使われる情報はどれが効果的ということも検証しています。
解約率を予測する完璧なモデルをつくったとしても、そのモデルのもとになるデータとまったく違うデータセットを入れてしまうと、その予測は正しく働きません。それはモデルが悪かったのではなく、まったくふさわしくないデータセットで予測しようとした人間が悪いのです。
AIの透明性を高め、ブラックボックス化を回避することの意味はなんでしょうか。
AIやアナリティクスで、意思決定のためのすばらしいモデルができたとしても、人間が責任の主体、意思決定の主体であることは変わりません。昨今では、AIが扱う対象が人間自身の生命にかかわるものにまで広がってきています。そこに関わる判断は、その人の生活や人生を大きく変える可能性があります。自動運転や病気の診断はその最たるものです。そこには必ず責任という問題がからんできます。
AIを使った自動運転の自動車が事故を起こしたとして、その責任は誰にあるでしょうか。AIのアルゴリズムを書いた人なのか、自動車会社なのか、運転している人なのか。こうした問題に直面したときに、アルゴリズムが検証可能であり、高い透明性を持っていることは必須です。
また、AIが皮膚がんの判定をしても、それはあくまでも判断材料であって、最終的にがんだと診断するのは人間です。アルゴリズムは人間の代替ではなく、人間ではできない量のデータを処理します。処理能力を拡張し、その部分でわれわれを支援するものです。AIは人間の能力を拡張した、すぐれた「第2の眼」にすぎないのです。
説明可能なAI、AIの透明性を標榜しているのはSASだけですか。
いいえ。多くの組織や研究機関で、透明性の高いAIについての大規模な研究が進んでいます。現在AIの研究開発においては、相反する2つの潮流があります。
1つは、使用するデータの量を増やし、どんどん拡大することで、より精度の高いAI、モデルをつくるという流れです。もう1つは、個人情報保護の観点も含め、データは少なくし、アナリティクスがデータをどのように使って、モデルを作ったのか、そのモデルやアルゴリズムの透明性を高めようという流れです。
今後は両者が研究を進めるなかで、討議を重ね、弁証法的に、よりよいAIのあり方が定まっていくだろうと思います。そして、テストし、検証し、AIが高い透明性を保ち、利用しやすいものになったとき、われわれはさらに自信を持って、よりよい世界をつくるためにAI、アナリティクスを用いることができるでしょう。





