フォト
2018年10月
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31      

最近のトラックバック

最近のコメント

無料ブログはココログ

« Harvard Business Review創刊35周年記念セミナー「リーダーの役割と使命」 | トップページ | Webアナリスト養成講座/Googleアナリティクスを利用したユーザーシナリオ分析とSEMの改善 »

2012年3月27日 (火)

beBitセミナー 「データ」×「心理」! 事例に学ぶ成果改善アプローチ

今回のお題は以下の2つでした。

:::::::::::::::::::::::::::::::::::::::::::::::::::::::::

【1】「データ」×「心理」!事例に学ぶ成果改善アプローチ
  →Assumption & Experiments型(仮説・実験)による高速PDCA

【2】アトリビューションの本質と活用事例

:::::::::::::::::::::::::::::::::::::::::::::::::::::::::

特に印象的だったのはサントリーさんのお話。

 ●週1回のテスト実行を義務化し、週1回の施策会議で報告

 ●テストには必ず仮説を練り込む。そうすれば結果のみを見ればよいので速い
    →アクセスログの読みあわせ等も特にしない

 ●トライ&ラーン、失敗も糧になる(失敗も共有)

頭ではわかっていても、なかなか実践できてないことだと思いました。

事前仮説がシャープでなく、結果から何もわからなかったり、
成功事例ばかりで失敗したことは共有されかったり、
ヒドイ場合は結果を曲がった解釈で成功したことにしたりなど、
本当によくあることです。

 

また、後半のアトリビューションの話も納得然りでした。

複雑な分析は定着しないし、早く回せないので

 「分析はざっくりと。あと仮説立案&検証で改善していく」

アクセス解析イニシアチブのアトリビューション分科会に参画して
自分が得た結論と全く同じで、大変勇気づけられました。

 

*********************************************************

【気づきメモ】

●「ゴール定義→ユーザ定義→施策→検証」のサイクルをめいいっぱい早く回す

●PDCAサイクルは「結果が出るまでの時間」に制約されてしまうので、
  「結果が早くが出る、見える」環境を作ることが重要。

   →結果がすぐ見えるようにすれば、自然と改善しようとする

●施策にきちんと仮説が込められていれば、結果数値だけをみればよいので速い

●アトリビューションも複数接触仮説(シナリオ仮説)をもとに検証する。
 →ポイント化したり複雑な分析をしても、時間がかかるばかり

 

以下、講義メモです。

*********************************************************

<「データ」×「心理」!事例に学ぶ成果改善アプローチ:武井由紀子氏>

【マーケティングを取り巻く環境変化】

●市場の成熟と経済の鈍化
 →競合ではなく「顧客への提供価値」に主眼をおくことで利益確保が可能

●テクノロジーの進化
 →新たなデータに基づくマーケティング業務が発生

●「作れば売れた」は過去のもの
 →多様化・複雑化する環境では、ユーザ理解&データ活用が生き残りへのカギ

●現在のマーケティングは「ユーザー中心のデータに基づくマーケティング業務」
 →データを用いながらユーザに対する理解を積み重ねるPDCAサイクルにより、継続的に成果が向上

●「抜本的に戦略を見直し、大きな成果を出す」&「日々の業務の中で継続的に成果を出す」

 

****************************************

【データ分析の現状課題】

●データの性質と限界を知り、それに合わせたデジタルマーケティングの業務を行う必要がある
 →どう業務に取り入れるかがカギ。

●データ量の問題への対応:データをフェイズにより使い分ける
 →戦略を抜本的に見なおす場合は定量に加え、訂正データも活用し、ユーザを深堀り。
 →継続的に成果を伸ばすフェイズでは、「施策の結果」に絞ってみる。

●データの質の問題への対応:ユーザの心理、実際の動き(一貫したコミュニケーション)をベースにデータを捉える
 →データだけでは「行動の結果」しかわからない。
 →「なぜ(動機ニーズ)」を点でなく「線」で一貫して捉える

●本当の最適化とは「ユーザニーズを踏まえ、コミュニケーション全体を改善すること」

 

****************************************

【Assumption & Experiments型(仮説・実験)】

●まず仮説を立て、それを実験する。実験結果を見ることのみデータを使用
 →Analytics(分析)型と比較して、見るデータを絞れる。誰でも簡単にできる。
 →シンプルなので、時間がかからない。

●サントリーでも角ハイボール施策でA&Eを導入し、業務サイクルを3ヶ月から1週間に短縮。成果も数倍に。

●A&Eは「ゴール定義→ユーザ定義→施策→検証」のサイクル
 →仮説なき実験は存在しない
 →失敗を恐れず、施策と検証をセットで繰り返す

●「ゴール定義」がまず重要
 →的(ビジネス成果)を決めずに、どこかに矢(施策)を放っても当たるわけがない

●案件が担当者から持ち込まれた時に、まず「活用目的」を定義してあげる
 →その目的を共有し、さらに数値目標を設定してもらい、ビジネス観点でFBする

●ビジネス貢献が曖昧な施策は許さない。
 →まずマネージャがビジネスに貢献する目的を立てる
 →その上で、明確な数値目標を部下に立ててもらう

●大雑把でもビジネス貢献に紐付けてウェブのゴールを設定。
 →なんらかしらの「数値目標」を立てる事が重要。

●ターゲットに直接会わずに、架空のユーザーで議論していないか?
 →頻繁にターゲットユーザと接触する機会を持ち、ユーザニーズをリアルに体感することが重要
 →現実味を持ってユーザをイメージすると、成果に直結する施策が浮かぶ

●サントリーでは・・・
 ・実地調査(資料請求のあった飲食店に、飲みに行きユーザを観察)
 ・ユーザ行動調査(ターゲットユーザを実際に呼びWeb利用を観察)
 ・ユーザ自身、ないしはユーザに日々接する人(営業マンやコールセンター担当等)にヒアリング

●クックパッドでは施策を打つときは、実在する個人をターゲットに設定することがルール

●AmazonではCEOのジェフベソスを含む全社員が、コールセンター研修を受ける

●同じ事実でも表現の仕方で印象が変わる
 ・カードは別途お申込みが必要です
 ・お客様のお好みに応じて2つの選択肢をご用意しています(カード不要コース/カード申込コース)
  →ユーザのニーズや心理状態を深く理解すると、よりよいコミュニケーション(施策)が取れ成果に繋がる
 
●まずは「ユーザ」や「説得方法」の妥当性について施策を打って実験(A/Bテスト)
 →いきなりクリエイティブの検証をしない。
 →色がどちらがよいか、などは後回しでよい。

●仮説に基づいた施策を「高い頻度」で打ち続けることが成功のカギ

●週1回の施策会議で前週の報告と、今週の実行施策を決定
 ・週1回の施策実行を義務化し、週1回の施策会議で報告する
 ・会議で結論が出ない場合、臨時会議の開催を義務化し、週1回何らかの施策を打つ
 ・ログの読みあわせはしない。A&Eは結果だけ見てから参加。
 ・トライ&ラーン、失敗も糧になる

●施策を頻繁に打つためには、検証の高速化が必要。シンプルに施策の「結果」だけを見る
 →仮説を持って施策を打てば、施策の結果を見るだけでよいはず。

●サイト内での細かい導線分析は行わず、施策の「結果」に絞って検証。
 →そのためには施策と結果を紐付ける「結果を見るためのツール(A&E型ツール)」が必要
 →サイト分析のためのアクセス解析ツールと併用。

:::::::::::::::::::
(サントリーの事例)

●角ハイボールの飲用経験率をアップさせるため、以下のようなストーリー(シナリオ)を設定
  1) 大手飲食店検索サイトで「角ハイボールの飲めるお店特集」をバナー広告訴求
  2) 近所のお店の1杯無料クーポンをDL
  3) クーポン効果で来店し、飲用体験

●当初「角ハイボール」で検索する人をターゲットにシナリオを考えていたが、
 クーポンDLが伸びなかった。

●「角ハイボール」で検索する人は、ハイボールの作り方、角瓶やジョッキがあたるキャンペーン情報に興味があり、
 飲食店で飲むことには興味がないのでは?という仮説を立てた

●「渋谷 居酒屋」といった地域性の高いキーワードに切り替え、
  東京・大阪の地名で集客できる対象店舗の特集ページを改訂

●検証したい仮説に基づいて施策を設定しているので、見ているデータは施策の結果数値のみ
 →施策ごとのクーポンDL数しか見ていない

 

****************************************

【実験手法のまとめ】

●ゴール定義:最初にビジネス貢献するゴールを決める

●ユーザ定義:実在する個人をイメージできる状態を作る

●施策:仮説に基づいた施策を高頻度で打ち続ける

●検証:シンプルに施策の「結果」だけを見る

 

****************************************

【分析事例】

●大手自動車メーカーではスペシャルサイトに誘導していたが、ユーザ肌感がある担当者が
 「スペシャルサイトは施策情報が少なく、ユーザの期待に応えていないのでは?」という仮説を立てた
  →広告からの誘導先をスペシャルサイトと本体サイトでABテストを実施。CVを比較
  →本体サイトに流した方が成果が出ることがわかり、全体の運用ルールを変更

●マネックスFXでは当初「数値強調LP」を用意していたが、自社には数値以外の強みもあるのでは?と仮説を立てた
 →「信用型LP」と「バランス型LP」テストなども作ってA/Bテスト。結果、成果は5倍まで伸びた

 

****************************************

【本日のまとめ】

●デジタルマーケティングではユーザ中心のデータに基づくマーケティングが成果改善のカギ

●継続的に成果を上げるには、「分析」型の業務をやめ、「A&E(仮説・実験)」型の方法論を取り入れる

●A&Eは、「1.ゴール定義」→「2.ユーザ定義」→「3.施策」→「4.検証」の順番で実践。
 そしてできるだけ高速に回転させる

●A&Eを回すには、施策と紐付けて結果を見ることができる「A&E型ツール」が最適

 

*********************************************************

<アトリビューションの本質と活用事例:垣内勇威氏>

●アトリビューションもA&E型で行う。
 →事前に立てた「複数接触」仮説の検証にアトリビューションを活用する

●アトリビューションの本質は「後付けで広告を過大評価する取り組み」ではなく
 「事前に立てた複数接触型コミュニケーション仮説の検証手段」である

●「複数接触型コミュニケーション」仮説なき、アトリビューション分析に意味はない

●ホームセキュリティ会社の活用事例
 ・高額のため1回でCVせず、比較する
 ・選び方がわからず、安さが決め手になる
 ・現場の営業担当にヒアリングしたところ同じことが起こっていた
  ↓
 ・そもそもユーザは「安心」を求めているはず。
 ・選定方法として「拠点数」の重要性を刷り込む。
  ↓
 ・「選び方」のLPを設けて、広告からはそこに誘導
  ↓
 ・選び方LPで初回接触したユーザの再訪問CVを評価(他の数値をみない)

●人材紹介会社の活用事例
 ・転職活動はぼんやり検討するケースが多い
 ・何かのきっかけ(上司に怒られる等)があり、アクションを始める
 ・きっかけ発生を制御できず、その時覚えているサイトで登録するという仮説を立案
  ↓
 ・刈取り型から、きっかけ発生前に長期にわたって接触し続け、記憶に残す戦略に変更
  ↓
 ・登録したユーザに、接触した回数をフラットに評価した

●通信教育会社の活用事例
 ・サテライトサイト(動画、教育コラム、ゲーム等)からの直接送客だけを見ていた
  ↓
 ・サテライトサイトだけを継続的に見ていた人が、別機会に販促サイトへ訪問し、
  申し込みをしているのでは?という仮説を立案
  ↓
 ・サテライトサイトに一定回数接触したユーザの再訪CVを評価

●アトリビューションの評価方法は、仮説ごとに変えるべきである
 →仮説が異なる施策ごとに、評価方法は異なる
 →逆に刈取り型の施策(一発でのCVを狙う)ものは直接CV数のみで見るべき

 

****************************************

【アトリビューションを日々の業務で活用する】

●まず、現状施策が「複数接触型」と「刈取り型」のどちらかを見極める
 →WebAntenna等でリードタイムや接触回数をみる

●「複数接触型」か「刈取り型」かは業界によって、施策種別によって違う

(業界別傾向)
 ・家電EC:ユーザが2極化している
 ・化粧品EC:ほぼ一回勝負
 ・不動産:リードタイムも長く、接触回数も多い。
 ・旅行予約:リードタイムは長いが、接触回数は少ない(2、3回)

(施策種別傾向)
 ・リスティング:リードタイムが短く、接触回数も少ない
 ・アフィリエイト:リードタイムは短いが、接触回数は2極化
 ・バナー、メルマガ:リードタイムが長く、接触回数も多い

●現状が刈り取り型の場合はアトリビューションは見る必要がない
 →成果が伸び悩んでいるのであれば、今狙っているユーザよりも、CVに遠いユーザに対して、
  複数接触の仮設を立てる

●現状が複数接触型の場合、ユーザがどのように行動しているか仮説を立て、施策の役割を決める
 →現状施策がどのように複数接触しているのか仮説を立てる
 →広告であれば、「認知獲得」「継続接触」「刈り取り」などの役割を決める
  ex.「純広:認知獲得」→「メルマガ:継続接触」→「自然検索:刈り取り」→CV

 

****************************************

【日々の業務へのアトリビューションの取り込み方】

●「初回接触」「中間接触」「最終接触」の大きく3分類して大雑把に見る
 →複雑な指標を日々見るのは困難

●「サイトに合った配分モデルを選ぶ」ではなく「仮説ごとに配分モデルを選ぶ」
 →同じサイトでも仮説・施策が異なれば、適用すべき配分モデルは違う
 →ただし、仮説が違う施策ごとに都度配分を決めなければならず、複雑になるケースが多い

●まずファーストステップとしては、現状の直接コンバージョンのレポートに、
 「仮説」欄と、「初回接触」「中間接触」欄を加えることを推奨
   →初回接触を狙っている施策は、初回接触数が多ければ評価する(施策として残す)
  →数値として見ることで肌感を養う効果もある

●英語教材メーカー会社で認知系の広告は初回接触(認知効果)も評価することでCPAが大幅改善

●本当に初回接触を評価してよいかどうかを統計的に調べることもできる
 →初回拙速施策ごとに「縦軸:CV数(対数)」「横軸:接触回数」でグラフ化
 →グラフが直線になっていれば、アトリビューション効果無し(無記憶型)
    折れ線になっていて、接触回数のどこかで跳ね上がっていればアトリビューションあり。

 

****************************************

【まとめ】

●アトリビューションの本質は「後付けで広告を過大評価する取り組み」ではなく
 「事前に立てた複数接触型コミュニケーション仮説の検証手段」である

●「複数接触型コミュニケーション」仮説なき、アトリビューション分析に意味はない

●アトリビューションの評価方法は、仮説ごとに変えるべきである

●まず、現状施策が「複数接触型」と「刈取り型」のどちらかを見極める

●ポイント制を用いる場合、一律ではなく、仮説ごとに都度配分を定義する

●ファーストステップとしては、現状の直接コンバージョンのレポートに、
 「仮説」欄と、「初回接触」「中間接触」欄を追加

 

*********************************************************

【その他】

●WebAntennaならCV180日前/11回分まで遡ってみることができる
 →GAだと30日前しか取れず、接触と接触の期間が取れない

●WebAntennaなら全施策を一元管理できる

●米国の先進事例でもビュースルーはスポットでみるのが普通。
 →日々の運用で見ていくにはデータ量が膨大になりすぎて無理。

●ターゲット設定はいろいろな人の要素をミックスするのではなく、分けて設定し、優先順位をつける
 →複数要素を組み合わせるとリアリティのないターゲット像になる
 →そうならないようクックパッドなどでは知ってる人をイメージしてペルソナをつくる

●最終成果までのリードタイムが長い施策で結果検証のスピードをあげるためには
 すぐに結果があらわれる中間指標を設定する
  →最終CVと相関がある中間指標を設定
  →「中間指標での検証」と「最終CVでの検証」の2段階で施策評価

 ※ex.コンテンツAをよく見ている人はCVする(仮説)
    →当座、コンテンツAの接触回数で施策評価
    →時間をおいて、コンテンツAの接触回数と最終CV数の相関を検証

 ※ex.サテライトサイトの施策評価の場合、CVする前段階となる販促サイトへの訪問を評価

●A&Eの風土を作るには
 ・成果にどのくらいのインパクトがあるかを数値で示す
 ・結果がすぐ見える形にする
 ・ユーザを見せる

●通常は定量データを見つつ、スポットで定性調査を行うという2段階で施策評価を行う
 →定性調査は日々行うのは困難なため

●「他の施策による影響では?」という場合、同一環境下において
 「施策を当てた人」と「そうでない人」の差があるかを見る

 

*********************************************************

【関連URL】

●株式会社ビービット
  http://www.bebit.co.jp/

●各種コラム(とても参考になる情報ばかりです)
  http://www.bebit.co.jp/columntalk/

●ウェブアンテナ(A&E型の実現するための検証ツール)
  http://www.bebit.co.jp/webantenna/

●アトリビューションの本質は、「後付けで広告を過大評価する取り組み」ではない
  http://web-tan.forum.impressrd.jp/e/2012/06/21/12998

*********************************************************

 

« Harvard Business Review創刊35周年記念セミナー「リーダーの役割と使命」 | トップページ | Webアナリスト養成講座/Googleアナリティクスを利用したユーザーシナリオ分析とSEMの改善 »

研修・セミナー」カテゴリの記事

コメント

コメントを書く

コメントは記事投稿者が公開するまで表示されません。

(ウェブ上には掲載しません)

トラックバック

この記事のトラックバックURL:
http://app.f.cocolog-nifty.com/t/trackback/1531819/44717982

この記事へのトラックバック一覧です: beBitセミナー 「データ」×「心理」! 事例に学ぶ成果改善アプローチ:

« Harvard Business Review創刊35周年記念セミナー「リーダーの役割と使命」 | トップページ | Webアナリスト養成講座/Googleアナリティクスを利用したユーザーシナリオ分析とSEMの改善 »