この記事を読むのに必要な時間は約 10 分です。

突然ですがGIGO(ガイゴ)という言葉を聞いたことはあるでしょうか。これは「Garbage In, Garbage Out」の略で、直訳すると「ゴミを入れるとゴミしか出てこない」。特にデータ分析で元となるデータが不十分だったりいい加減に作られたものだと、それを分析しても大したアウトプットは出てこないという意味で使われます。 

物流の在庫管理やコンピューターの世界で使われていたFIFO(ファイフォ、First In, First Out)つまり先に入れた商品やデータを先に出す「先入れ先出し」の語呂に合わせて作られた用語だったのですが、データサイエンスの広まりに合わせて最近よく使われるようです。 

このGIGO「ゴミ入れゴミ出し」の法則は、SFAデータの分析でも当てはまります。入力されているデータがいい加減なものだったり、そもそも入っていなかったりすると、それを集計/分析して得られる結果もたかが知れています。チームの中に正しく入力しない人が一人いるだけで、チーム全体としてのデータがゴミになってしまうことすらあります。私も色々な営業組織のSFAデータを見せていただいていますが、きちんと入力されていて分析に活用できているというところは少ないようです。皆さんが使われているSFAのデータはいかがでしょうか。  

そこで今回はSFAデータの分析がGIGOになってしまう理由と、その解決策について考えてみたいと思います。SFAのデータをきれいにしてくれる「データクレンジング」ツールも数多く登場している現在ですが、本当に必要なことが何かについて考えてみましょう。 

営業データ分析やセールスイネーブルメントに欠かせない「信頼される精度のSFA入力データ」 

デジタル化やDXが当たり前のものになりつつある現在では、SFAのデータを活用して現在の状態を分析したり、期末の着地見込を予測したりすることは特段目新しいことではなくなっています。また、最近ではそれらのデータを用いて、各種キャンペーンや営業資料、研修の効果を測定して継続的に改良する「セールスイネーブルメント」という考え方も広まっており、SFAデータの活用が営業活動において不可欠のものになっています。 

そして、データ分析やセールスイネーブルメントに活用しようとすると、そもそもの元データがある程度信頼される精度で入力されていなければなりません。 

汚染されてしまいがちなSFAの入力データ 

しかし、SFAに入力されるデータの多くは人の手によって、特に日々の営業活動で忙しい営業担当者が隙間時間に入力しているため、きれいに整ったものになっている営業組織は多くありません。「トライツコンサルティング株式会社」と「トライツコンサルティング(株)」の両方が入力されていたり、「トライツコンサルティング株式会社本社」などと企業名に拠点名が含まれていたり、簡単に検索・表示できるように「☆トライツコンサルティング株式会社」などの記号を付けている担当者もたまにお見かけします。 

また、複雑な商品コードを調べて入力するのが面倒なために「9999:その他」となっているデータが異常に多かったり、前回の商談データをコピーして入力するために「日付」と「メモ」部分だけ更新されていて「商談ステータス」がずっと同じままだったりという商談データもよく見ます。また、そもそも売上の集計機能としてしか使わないチームだと、手前の商談情報を一切入力せずに受注したときだけ入力するので、「受注率100%」という驚異のデータが出来上がってしまいます。他にも、「商談化」などの用語の定義が人やチームによって異なっていると、それらをまとめて出した「商談化率30%」などのデータにはまったく意味がありません。 

このように、SFAデータが汚染されるパターンは数多くあります。 

汚染データをどこまできれいにしてくれる?データクレンジングツールの登場 

このように困った状況になっている営業組織が多いため、魚心あれば水心ということで、そのようなお困りごとを解決できると謳っているテクノロジー、いわゆる「データクレンジングツール」が数多く登場しています。AIやアルゴリズムを使って重複データを排除したり、「トライツコンサルティング株式会社」と「トライツコンサルティング(株)」を一緒にまとめたり、Webを巡回して企業の本社所在地や年商、資本金などのデータを自動で更新してくれたりといったものです。 

海外調査レポートの提言「最新のテクノロジーを買っても、人の問題は解決できない!」 

では、このようなテクノロジーがあればSFAのデータはきれいに保たれるのでしょうか。 

これに対し、テクノロジー頼みのままではいけないと警鐘を鳴らす記事が最近発表されました。それは、世界有数の調査会社Forrester Research社の「Struggling With B2B Data Quality? Let Me Guess …」。直訳すると「B2B データの品質に苦労していますね? その理由を当てて見せましょう」という記事。この中で筆者のブレット・カーンケ氏は単刀直入に「最新のテクノロジーを買っても、人の問題は解決できない」と断言しています。記事の中身をもう少し見てみましょう。 

これまでの経験から得られるテクノロジーについての定理の 1 つに、「最新テクノロジーを買っても、人の問題は解決できない」というものがあります。SFAの中に広まっている汚染されたデータに対応するための、複雑な社内調整や施策から逃げている企業が多すぎます。営業のプロセスやKPIを改めて定義しなおしたり、それらについてマーケティングなど営業に関連する部門から合意を取り付けたり、データを入力する営業担当者やマネージャー向けの研修を行ったりといったことをせず、テクノロジーの導入で解決できればと希望を抱いています。そのため、とめどなく入力される汚染されたデータを、継続的にクレンジングして分析できるようにしてくれる、まだ見ぬ理想のテクノロジーを探し求めているのです。

要約すると「SFAに汚染されたデータが入力される原因から目を背けてテクノロジーに逃げるな。営業プロセスやKPIを定義し、関連部門と合意を得て、担当者/マネージャーに周知・研修することで、人が起こすSFAデータの汚染を根元から最小化しよう」ということ。色々な企業のSFAデータを分析してきた者としては「よく言ってくれた!」「まったくもってその通り!」という気持ちで一杯です。SFAデータを自ら分析したことのある方の中にも、賛同していただける方がいらっしゃるのではないかと思っています。 

研修で特に重要な「興味を持たせるデータの分析/活用例の提示」 

SFAデータの汚染を最小化するための施策として、カーンケ氏は「用語や指標の定義」「関連部門との合意」「担当者/マネージャーへの研修」の3つを挙げています。3つめの「研修」を行う際にとりわけ重要だと実感しているのが、「担当者やマネージャーが興味を持つようなSFAデータの分析/活用例を示す」こと。適切に入力することが自分にとってのメリットになることをいかに説得力をもって伝えられるかということです。 

皆が入力したデータを分析することで、自社としての商談の勝ちパターンが見えたり、特定の商品が売れやすい顧客像が明確になったりすると、日々自分たちが入力するSFAデータの価値を理解していただけます。また、過去の入力データをもとに今後のアクションを組み立てる方法とその利便性を理解できると、商談履歴を将来の自分に正しく「申し送り」することの意味を解っていただけるでしょう。特に最近ではAIによって、過去の商談履歴をもとに次のアクションを分析/助言してくれる機能も開発されていますので、汚染されていないデータを入力するメリットはこれまで以上に大きくなっています。 

テクノロジー頼みにせずに整ったデータを入力できる営業組織/しくみを作ろう 

これまでSFAデータの活用は営業のデジタル化やDXにとっての一丁目一番地でありながら、なかなかうまく活用するのが難しいものでした。Webからデータを自動で取得して更新してくれるツールは便利なものですが、それだけではSFAデータの汚染を食い止めることは不可能です。そのようなテクノロジーだけに頼るのではなく、「用語や指標をしっかりと定義する」「関連部門と合意を得る」「研修を行い徹底させる」というベーシックな対策が欠かせません。 

これらの基本をしっかりカバーすることで、SFAデータに汚染されたゴミが入るのを最小化することができます。そして、ゴミではなくしっかりと整ったデータをインプットすることができれば、自社の勝ちパターンや次回の訪問で取るべきアクションなどといった役に立つお宝をアウトプットできるようになるのです。 

参考:「Struggling With B2B Data Quality? Let Me Guess …」(Brett Kahnke, Principal Analyst Forrester Research, Inc., June 21, 2024