企業はこれらのコストを、会計システムでは把握していない。だが幸いにも、このコストを把握する第一歩として、ある程度妥当な見積もりを「10倍の法則」で算出することができる。データに何らかの欠陥がある場合、1単位の作業を完遂するためのコストは、データが良質な場合の10倍に及ぶという法則だ。
具体的には、ある作業の90%においてデータが良質であれば、
・「付加価値のない」作業のコスト(質の低いデータの修正が必要であるという事情を知った顧客が、その作業に対して余分に支払ってくれることはない)。
・隠れたデータ工場に要するコスト(会計システムで把握できないため「隠れた」、人間がデータを再処理するため「データ工場」と呼ぶ)。
・非効率であるためにかかるコスト。
・生産性への打撃。直観的にはわかりにくいが、品質向上と生産性向上の機会が縮小する。
マネジャーや企業は、欠陥を完全に排除する必要はない。欠陥率を半分に減らすだけでも、大幅なコスト削減と生産性向上につながるのだ。
質の低いデータは、どれほどのコストを生んでいるのか
10倍の法則が示すように、データの質が低ければ低いほど、生産性が下がり負担が大きくなる。とはいえリーダーは、扱っているデータの質が低いことをどのように把握または判断できるのだろうか。
筆者はエグゼクティブ教育の講座を担当する際、参加者に「フライデーアフタヌーン・メソッド」というエクササイズをしてもらう。
このエクササイズは、まずマネジャーがすでに完了した100個の作業に対し、それぞれに10から15個の重要なデータを収集する。これにより実質的に合計で1000から1500程度のデータを収集することになる。マネジャーとチームメンバーは、それらのデータに目を通し、明らかなエラーに印を付け、エラーのないデータを集計する。この数値は0から100程度の範囲で、正しく生成されたデータの割合、つまりデータ品質スコアを表す。(例:データに欠陥がない作業の数が850であれば、スコアは85)。最後に10倍の法則を適用して、担当領域におけるコストを見積もり、この課題の完了とする。なお、フライデーアフタヌーン・メソッドという名称は、この手の作業が1週間の仕事が落ち着きを見せる、金曜日の午後に行われやすいため付けられている。
講座での2つの主要な結果を挙げておく。
・データ品質のスコアを90以上とした人の割合は8%。
・ほとんどの人のスコアは40~80の範囲内で、中央値は61。このレベルでは、データがすべて良質だった場合に比べると負担が3.5倍になる。同様に生産性も、本来の4分の1以下に落ちる。
当然ながら、企業は個々に異なるため、質の低いデータによるコストを減らして生産性を高める機会もそれぞれで異なる。とはいえ、これはデータをあまり必要としない企業にとっても重要なのだ。そして一部の企業にとっては、全体的なパフォーマンスを向上させる最善の機会となるかもしれない。