データ分析

データ分析とは、収集した顧客に関する様々な情報から重要なビジネスインサイトを導き出す行為です。

ポイント

データ分析では、任意の量のデータをふるいにかけ、重要なパターンやインサイトを見つけることができます。

分析はひとつのサイクルです。企業は継続的にデータを調整し、新たなアクションを生み、最適な顧客体験を理解して提供し続けなくてはなりません。

データ分析はおおむね説明的なものでしたが、現在では企業はデータを利用して、今後推定される値の範囲をもとに次に取るべき最善の行動を予測できるようになっています。

データ分析における失敗は、特定のストーリーに合わせてデータを歪めることや、分析せずにデータを収集すること、分断している様々なシステムから取得したデータを統合しないことなどがあります。

AI(人工知能)や自動化テクノロジー、マシンラーニング(機械学習)を利用することで、データ分析を強化できます。

Adobe Analyticsについて詳しく見る
顧客体験の本質を探る、アドビのガイドを読む

データ分析に関する様々な疑問に、Nate Smithが回答します。Nateは、Adobe Marketing Cloudに含まれるAdobe Analyticsのプロダクトマーケティングマネージャーです。製品を市場に投入し、製品ロードマップの作成から競争力のあるポジショニングの決定、リードジェネレーションの推進に至るまで、継続的な製品のリリースを担当しています。

もくじ

  • データ分析とは何ですか?
  • 分析とデータ分析には、どのような違いがありますか?
  • データ分析のプロセスはどのようなものですか?
  • データ分析はどのように進化してきたのですか?
  • データ分析を強化するためには何が必要ですか?
  • データ分析を最大限に活用するためにはどうすればよいですか?
  • データ分析で陥りやすい失敗にはどのようなものがありますか?
  • データ分析とデータマイニングには、どのような関係がありますか?
  • データのカテゴリーにはどのようなものがありますか?

データ分析とは何ですか?

回答:分析についてよく使われる例えに、金の採掘があります。つまり、金がインサイトであり、データの中から何かに活かせる興味深いものを見つけ出す行為というわけです。データアナリストの仕事は、砂金をふるいにかけることです。分析は、邪魔な砂利、つまり不要なデータを取り除き、金を見つけ出すための道具です。

アドビでは、データの中から重要なパターンを見つけ出すためのツールやテクノロジーを開発しています。これらは、重要なパターンやインサイトを見つけ出すプロセスの一環として、データを分割できる仕組みになっています。分析は本来、集約レベルで実行します。

必要に応じて詳細なレベルで実行することもできますが、分析の本当のメリットはスケールにあります。大量のデータを用意し分析でふるいにかければ、大規模なレベルで重要なパターンを見つけ出すことができます。ビジネスの場合、ひとりの顧客に最適な情報を見つけ出すことは有意義なことです。しかし、500万ドル規模の市場セグメントに最適なインサイトを見つけ出すことができれば、それこそが求めていたものと言えます。分析はそうしたインサイトを見つけ出すプロセス、つまり大量のデータをふるいにかけるプロセスです。

分析とデータ分析には、どのような違いがありますか?

データなしの分析はあり得ません。強いて区別をつけるとしたら、データ分析と言う場合、特定の種類のデータやデータセットに合わせた分析のことであると分類できます。

また、データ分析は、テクノロジーを実際に活用してデータをふるいにかける行為のことを指し、分析は、戦略や分析の大きなビジョンを包含するより広い意味の言葉であるとも言えます。

データ分析のプロセスはどのようなものですか?

まずはストレージとインフラストラクチャから開始します。どのようなデータであれ、収集したものはすべてどこかに保管する必要があるからです。インフラストラクチャのコンポーネントは、どのような種類のデータを収集する場合でも処理できるように、できる限り堅牢にする必要があります。これが第一段階です。

ストレージコンポーネントを用意したら、そこにデータを送りますが、データは結合および統合する必要があります。つまり、次に必要なのは接続性です。決定論的な方法や確率論的な方法で、何らかのIDを使用して分散しているデータセットを統合する必要があります。データの統合は、Excelなどでデータをマッシュアップすることとは違います。後者では、2つのデータセットが別個に存在することに変わりがなく、これでは分析の基盤になりません。データの統合が重要ポイントです。

データを統合したら、次は処理です。Extract(抽出)、Transform(変換)、Load(格納)の「ETL」とも呼ばれます。要約すると、これは統合後のデータに形状と意味を与えることです。データをキューブ形式にしたりセッション化したりして、未加工データを使用可能な形式に変換します。未加工の素材を、使用可能な形式にまとめます。

続いて、そうしたデータの上に分析やモデリングのレイヤーを重ねます。実際には、ここではある種のUIを使用したり、RやPythonなどの言語を使用します。ここまでが、データの収集、統合、変換、分析です。続いては可視化と解釈です。

Adobe Analyticsでも、データテーブルを表示し分割してから、ビジュアルに変換できます。これにより、データのわかりやすさと明快さが向上し、共有しやすくなります。データを収集し情報に変換しても、それのみで価値が高まるとは限りません。しかし、データを可視化してインサイトのレベルまで引き上げれば、知識が手に入ります。

最後に、出力が必要になります。出力は、特定したセグメントやオーディエンスになります。これらはAdobe Targetなどのツールに送信し、様々なA/Bテストを実施できます。予測スコアが出力になる場合もあります。サイトで新規顧客を獲得したら、特性や行動をもとにスコアを割り当てることができます。これにより、各顧客にどの程度の時間や労力を投じるべきかをシステムに認識させることができます。

コンテンツ最適化用システムか広告最適化用システムかを問わず、分析の出力をアクション実行システムに接続することが最後のステップです。データを詳細に分析し、UIに情報を表示する機能だけでは有用とは言えません。それを行動に活かす必要があります。データは特定の時点のスナップショットを示すものなので、インサイトに含まれる情報やインサイトそれ自体に有効期限があります。有効期限が切れたデータやインサイトは、特定したチャンスを活かす時には、役に立たなくなっています。

データ分析はどのように進化してきたのですか?

データサイエンスやデータ分析は、大きな進化を遂げました。デジタルインタラクションを例に挙げて考えてみましょう。デジタル化の前は、ほとんどの分析は、基本的にCRMやERPのデータ、取引行動、取引データに対して実行されていました。インターネットが登場し、その後モバイルが台頭すると、オンラインでの行動データが取得可能になり、このデータを分析することで特性にもとづく行動を把握できるようになりました。

大きな変化は様々なチャネルがデジタル化されたことであり、現在ではデジタル化のスピードは数年前よりもはるかに増しています。webサイトのデータやweb分析を含む、webデータが最初に生まれました。その後、モバイルアプリやその他のモバイルチャネル、他のデジタルチャネルが生まれ、現在では、音声アシスタントや音声分析、スピーチ分析なども出てきています。ロケーション分析や空間分析も導入されています。以前までは考えたこともないような様々な物事がデータに変換され、分析できるようになっています。

もうひとつの大きな変化は、こうしたあらゆるデータを一元化および正規化して、カスタマージャーニーや顧客エンゲージメントをより包括的に把握できるようになったことです。このことは、ビジネスにとっての現代の聖杯のようなものです。それまでは、特定のチャネルでのみ最適化がおこなわれていました。

企業は、webの最適化に取り組んできましたが、現在では、企業と顧客とのかかわり方はwebにとどまらなくなっています。例えば、新しい自動車を購入しようと考え、Fordのwebサイトにアクセスしたとします。デスクトップPCで自動車の情報を収集して、その後はNetflixを見て、またその後にiPadで動画を見るかもしれません。さらに、その翌日は、理髪店でスマーフォンを使用しているかもしれません。これこそが、マルチデバイスのカスタマージャーニーです。これが現代の顧客の傾向です。

一般的に、分析はビジネスにおけるバックミラーのようなものです。既に起こったことに目を向けるものであり、初期の分析は、説明的分析のツールや分野のことを指していました。ここ数年間で、運転中にバックミラーを見るのではなく、まっすぐに前を見るようになりました。つまり、予測分析が生まれました。これは過去のデータを見てから、今後期待される値の範囲を予測し、次に取るべき最善の行動を予測するというものです。

現在は、処方的分析の初期の段階です。要するに、企業は何をすればよいかを教えてくれるテクノロジーや分析ツールを求めているということです。

データ分析を強化するためには何が必要ですか?

必要なものはふたつです。ひとつはよりスマートなテクノロジーです。つまり、アナリストの業務を支援する、より使いやすいAIやマシンラーニングです。もうひとつは、システム間でのデータの共有や移動を円滑化する、ツール間の自動化と相互運用性の標準規格です。

現在は、目標とする状態に到達できていません。あらゆる分析ツールやベンダー、プロセスを調べれば、処方的なワンツーワンマーケティングを実現できるものを作り上げることができる可能性があります。しかし、必要な要件の多くが組織内で策定されていないのが現状です。

既存のテクノロジーに関しても、費用対効果の高い方法でマルチチャネルのカスタマージャーニーや予測分析に実際に対応する方法を把握していない場合があります。また、インサイトを抽出し、そのインサイトを行動に活かせるように支援するAIやビジネスインテリジェンスを、さらに組み込んでいく必要もあります。

最終的には、分析によって統計的に価値の高いセグメントを自動的に割り出し、予測スコアを導き出した場合は、そうした情報がAdobe Targetなどのツールに自動で取り込まれ、A/Bテストが実施されるようにする必要があります。こうして、A/Bテストで勝者が判明すれば、該当キャンペーンの担当者が会議室で話し合う必要はなくなります。システムは、テストの勝者を使用して別のテストを設定し、特定された別のセグメントのテストを開始するようにします。

より優れた自動化テクノロジーや分析テクノロジーが導入可能になるまでは、新しいチャネルを統合することから着手してもよいでしょう。例えば、webのみで販売をおこなっている小売事業者が、モバイルトラフィックが増加していることに気付いたとします。その場合はモバイルアプリのデータが新しいデータチャネルになる可能性があるので、これを現在の分析に統合することに着手するとよいでしょう。

データ分析を最大限に活用するためにはどうすればよいですか?

分析は、常に進化するサイクルであるものと捉えてください。データ収集は常におこないます。また、データ収集は常にリアルタイムでおこないます。収集したデータは更新され、動的なものになります。

こうした仮想的なサイクルがどのようなものなのかを考えてみると、まずデータを収集してから分析し、解釈してインサイトを抽出します。そうしたインサイトを出力して、A/Bテストなどの他の顧客接点用のテクノロジーで利用します。

テストを実施し、その結果をもとにして、webサイトの訪問者の行動に関する新しいデータを収集します。サイトのホームページで2種類のバナーをテストする場合は、そのページでのアクティビティだけでなく、そのページ以降のアクティビティの情報も送信されます。次にそうしたデータを収集し、再び分析する必要があります。

そして重要なセグメントを見つけたら、それをさらにふるいにかけるようにして、不要なデータを取り除きます。これを継続的におこないます。データが細かくなるにつれ、分析も洗練されていきます。そして、効率性が高まっていくという考え方です。

分析を開始すると、突然ベースラインが構築され、すぐに非常に大きな成果が得られるかもしれません。分析を洗練するにつれ、コンバージョン率の上昇幅や改善の度合いが小さくなっていく傾向があります。しかし、高いレベルで運用しているため、コンバージョン率が0.5%増加するだけでも、収益効果は非常に大きくなります。

データ分析で陥りやすい失敗にはどのようなものがありますか?

よくある問題のひとつは、一種のアジェンダを持っている関係者が、データを不適切に扱い、都合よく解釈して、自分の主張にとって有利な、ただし事実ではない可能性がある結論を導き出してしまうケースです。この問題は、マーケティングマネージャーがアトリビューション分析によって、自分のキャンペーンの効果をアピールする際によく起こります。

アトリビューションテクノロジーでは、様々なマーケティング活動のコンバージョンに対する貢献度が割り当てられます。例えば、多数の電子メールを配信したら、顧客がそれをクリックして買い物かごに商品を入れ、その後購入に至ったとします。顧客は電子メールをクリックしているので、その電子メールは売上に貢献したとみなされます。顧客が広告のクリックから購入に至った場合は、そのディスプレイ広告が売上に貢献したとみなされます。多くの組織では、スタッフは機能的グループに分けられており、そうした項目の予算が割り当てられています。例えば、アトリビューションモデルを実行したところ検索連動型広告の貢献度が非常に高かった場合は、CMOは検索連動型広告グループの予算増額を要請する可能性が高くなります。

その結果よく生じるのは、各チャネルのマネージャーが競い合い、自分に都合がよい様々なモデルを構築するというケースです。そうしたモデルからは、事実が得られない可能性があります。それぞれの構築担当者が自分の目的のためにデータを歪めたり、都合よく解釈したりしているからです。

社内でデータの分析方法に関する成熟度や知識が不足していることが問題になる場合もあります。こうしたケースでは、分析のトレーニングを受けていないスタッフが多く、そうしたスタッフが分析を使用して何かをおこなう役割に就いています。また、多くの企業でデータサイエンティストが不足しています。データサイエンティストは需要の多い職業ですが、現代では不足しています。

データ収集やデータストレージの観点から見た最も大きな失敗のひとつは、データを収集し、後になってから処理するという方法です。ビジネス戦略全体を考慮しないと、最終的にはデータや分析がビジネスのコストになり、成果をほとんど得られません。

接続性の観点からは、多数の組織がデータを一元化しているか、一元化しようとしています。多くの企業があらゆるデータをデータレイクに移しています。そうしたケースでの問題が接続性です。こうした企業は、データの正規化や標準化をおこなっていません。それはつまり、同じ場所に保管していても、実際にはデータを効果的に統合できず、すぐにインサイトを抽出できないということです。ビジネス上のひとつの疑問の答えを見つけるために、多大な時間をかけてデータの整理、正規化、標準化をおこなう必要があります。また、インタラクティブ機能がないと、データを十分に可視化したり、インテリジェンスや自動化を適用したりすることができません。

ETLや処理の観点からは、多くの組織が旧来のパラダイムにとらわれています。例えば、モバイルでは、エンゲージメントやセッションの平均時間は2分以下です。これを、webではセッション時間が30分であったという旧来のパラダイムで考えても、関連性がなく意味がありません。

最後の問題は、インサイトとアクション実行システムの接続です。様々な企業が複数の顧客体験をまたいで対応することに苦慮しており、テクノロジーやカスタムビルドをつなぎ合わせ、データを再変換しようとしている段階にいます。

データ分析とデータマイニングには、どのような関係がありますか?

データマイニングは、一種のデータモデリング機能のようなものと言えます。例えば、データマイニングでは非常に多くのプログラミングをおこないます。使用する統計プログラムやデータベースシステム、膨大な量のプログラミングは、それぞれに異なります。データマイニングはデータサイエンティストの領域ですが、データ分析は広く一般化されています。データマイニングの方がはるかに未成熟の領域です。

データのカテゴリーにはどのようなものがありますか?

一般的には、データのカテゴリーやソースは3つに大別されます。まず、1stパーティデータです。これは自社で保有するもので、顧客がwebを訪問したときなどに収集されます。ふたつ目は2ndパーティデータであり、これは自社とパートナーが共有するデータです。例えば、航空会社とクレジットカード会社が何らかの共同オファーを実施するとします。両社は顧客が共通しているので、お互いのビジネスを支援するために相互にデータを共有する契約を結びます。

最後に3rdパーティデータがあり、これは市場で購入できるデータです。そうした大規模なデータセットを購入し、統合することで、1stパーティデータを拡充できます。また、政府機関のデータや気候データなど、一般公開されているデータも利用できます。

参照トピック