マーケティングリサーチとAI

AI一般ではなく、マーケティングリサーチとAIという視点で AIを考えてみた。(これは第14回アウラ・コキリコセミナーでしゃべった内容である。知識不足や間違いが多いと思う)

MRにとってのどかな時代

データマイニングの時代

ビッグデータの時代

AIの時代

の4期に分けてみた。

「のどかな時代」のマーケティングリサーチは、クロス集計が主流で、特殊な解析方法として多変量解析があった。(今でも両方顕在である)この多変量解析の考え方と今のAIは似ているようだが全然違う。この「のどかな時代」の特徴は、解析手法よりもデータ収集方法にあった。この時代は、データを「時間と人とカネ」をかけて取りに行く必要があり、このデータを取りに行く行為をマーケティングリサーチと言って過言ではなかった。金と時間と人をかけるので、サンプルサイズによって費用が大きく違い、1000サンプルと500サンプルではほぼ倍の費用になり、定性調査の場合はグループ数で費用が増えていった。データは合計、平均、最大・最小値、最頻値、中央値、比率だけで、これに属性、デモ特性などをかけてクロス表を作って分析していた。クロスも三重クロスをすることはまれで、それでもセルのサンプル数がゼロになることが多かった。多変量解析の使い方は、主成分分析、因子分析で出てきた軸でクラスターに分け、クラスターのプロファイリングというパターンが多かった気がする。これは、セグメンテーション、ターゲティングのプロセスで、AIの流れとはだいぶ違っていた。また、学術分野のように有意差(いわゆるp値)が問題になるような場面もほとんどなかった。とくにネットリサーチが主流になってからは有意性は問題になっていない。MRでは、有意性よりは、集計されたデータの比較で解釈することが普通である。ブランド認知率の絶対的数値よりも東京と大阪の認知率の差、男性と女性での差に注目した方がマーケティングの知見は得やすかったといえる。

のどかな時代にショック与えたのはPOSデータであろう。データ量が一挙にゼロふたつくらい増えたのである。クロス集計の世界ではない。そこで出てきたのがデータマイニングである。(もちろん、MRの中からではなく周辺分野から出てきたものである)最初にPOSデータを見た時はびっくりで、まずマシンの集計時間が膨大(費用も増える)になることが頭痛のタネだった。レコード数(量)は巨大だが分析に使える属性データがほとんどない状態だった。初期のPOSデータは店舗属性もなかっただけでなく店舗別でもなかった記憶がある。まして、購買者データなどひとつもなかった。このデータをテキストマイニングした結果が有名な(そうでもないか)紙おむつとビールの併売率が最も高かったという話である。その後、ビールと紙おむつを関連陳列したスーパーがあるという話は聞いていないので、話だけで終わった分析なのであろう。

今は、ECサイトのデータがPOSデータより巨大で、このWebサイトのデータ分析のことをビッグデータ分析と言い始めたのではないか思う。毎分毎秒自動的?に集まってくるデータで、そんなところに改めて質問文を作って新たにデータを取りに行くという発想は生まれない。データを取りに行くMRではなく、集まったものすごい大量のデータを大量のデータのまま分析すれば新しい知見が得られるというのがビッグデータの考え方である。

データを基軸にMRとビッグデータ分析を見てきた。AIにもビッグデータは必要だがビッグデータ分析がそのままAIにはつながらない。AIの発想は、コンピュータを単なる計算機から「考えるコンピュータ」にしたいとの意思があった。AIというコトバは1956年のダートマス会議が最初らしい。その後何回かのブームがあって、今は第三次のAIブームと言われている。第三次の特徴は機械学習強化学習ディープラーニングらしい。パーセプトロンニューラルネットワークは、図解を見るとなんとなく分かった気がするが実のところは理解できていない。ニューラルネットワークを何層も重ねているのがディープラーニングということでいいと思うが、そこには過学習というボトルネックがあるということである。もうひとつ、シンギュラリティがあり、機械に奪われる職業とか機械に支配される人間みたいな恐怖マーケティングがある。MRでいえば、あるブランドの来季の販促案をAIに入れるとその効果とコストが計算される。このAIに食わせるデータを収集するのがMRの仕事になるが、その時はおそらくデータを収集するAIが開発されていて、めでたくMRという仕事・職業はなくなる。これが究極のAIだが、たぶん、自分が生きていいる間はできないだろう。

AIは概念から実装の段階に入っているが、これを実現する背景には圧倒的なコンピュータパワーの進化とソフトウェア(ディープラーニング)の進化がある。しかし、世の中の動き全てをAIがコントロールする状況は想像できない。現在のMRが担っているスモールデータの収集と分析はこれからも必要であろうと考えている。AIとMRは流れの違う川で、どこかで合流する地点はまだ見えていない。

AIの実装は特に中国で進んでいるようで、99%の精度で指名手配犯を判別できるのシステムができ、警察官がこのメガネをかけて見れば、群衆のなかから指名手配犯を識別できるらしい。個人情報やプライバシーの考え方もAI普及のために解決すべき課題である。完全自動運転での事故の責任、保険の問題もアポリアに見える。 

ポストAIの時代に戻して考えると、MRの世界では定性調査の役割が非常に重要になってくると考える。入力層、隠れ層、出力層で言うと、入力層はインタビューそのものと発言録がインプットされ、隠れ層でマーケティング知識や人間の行動特性でウェイトづけられ、しかるべき結論がアウトプットされるというプロセスで今も定性の分析は行われている。その過程で誤差(おかしい!)があれば、隠れ層にまで戻って分析し直せる。このプロセスは定量調査では取りにくい。

ポストAI時代は定性調査の復活、ということでいいだろう?