モデリングやアルゴリズムというのは、それ独自で価値を生み出すものではない。何かを実践したいという、何らかの意識があって初めて価値となる。ビッグデータの登場により、データを扱う手法はさまざまに変化している。
データ解析には、「データ・マイニング」「モデリング」「最適化」の3つの重要なステップがあるが、これらを通じて、特に「因果の表現」が重要である。ある2つの事象が同時に起こるのであれば、それはなぜか。いままで気づかなかった因果の発見こそが、すでに現場で培われた洞察力、直観、さまざまな経験を乗り越える知識なのである。一方で、莫大なデータを集積する技術が発展した半面、統計の原理上は、データ量が多いとかえって何かを正確に予測することが難しい、といったパラドックスが起こるという。
本インタビューでは、日本の統計学の第一人者が、ビッグデータ時代のデータ解析の本質と、いまの時代に企業に求められる視点について語る。