[海外動向]

【PARTNERS 2014報告】米eBayの100PB超のデータ分析など最新ビッグデータ活用事例が続々

2014年10月28日(火)田口 潤(IT Leaders編集部)

米国ではデータを分析し、経営や事業に生かすことが常識になっているのかも知れない。それも人事や会計、生産管理といった定型業務とほぼ同じレベルで業務に溶け込んでいる−−。2014年10月下旬に開催されたカンファレンス「PARTNERS 2014」(主催は米テラデータのユーザー組織)に参加し、数々の事例に触れる中で、その思いは確信に近いものになった。

事例3:千趣会
ツールの機能を生かし、高度な分析を”手軽”に実施

 PARTNERS2014では日本企業も事例を発表した。その1社が、ビッグデータを簡単に(といっても相対的なものだが)分析できるアプライアンス製品「Teradata Aster」を活用している千趣会である。

 カタログ通販を主力とする同社は約20年前からTeradataを使って、商品施策やカタログ送付先の選定、需要予測などに取り組んできた。最近は通販Webサイトによる販売に力を入れており、購買履歴やアクセスログなど大量のデータを蓄積している。

 今回発表されたのは、このビッグデータの分析で、テーマは「the New Analytic World(新しい分析世界)」である。と言っても、やみくもにビッグデータを分析し何らかの有意な仮説を導くといったアバウトな取り組みではなく、明確な目的を立てている。

 具体的には、初回の購入者が2回目以降も購入するリピーターになるケースと、1回だけで終わってしまうケースの違いの要因を調べ、リピーターを増やす施策を打てるようにする。

 分析に使用したのは、主に購入履歴データとクリックストリーム・データ。初回や2回目以降の購入履歴と、購入者がサイトのどの情報をどんな順番で閲覧したかを付き合わせることで、違いを明らかにする試みだ。

 Teradata Asterには、この種の分析に適した「nPath」や結果をビジュアライズする「Asterlens」といった機能がある。これを使ってサイト閲覧のパターンと購買の関係を調べた。結果として、初回購入時の段階で異なるパターンを発見したという。

 次に、初回購入者がリピーターになるか否かを予測・判別するモデルを作成し、精度をチェックした。高い精度で判別できれば、例えばリピーターになる可能性が高い人が初回に購入した直後にクーポンを発行するなど、確度を高める手を打てる。Asterが持つ関数や機能を利用し、「CRISP-DM」というデータマイニング方法論に則って、SVM(サポートベクターマシン)と呼ぶ機械学習モデルを構築した。このモデルに初回購入者のデータを入力すると判別するわけである。

 結果はどうか?「今のところ理想の精度にはまだ遠く、少し確度が上がった程度。とはいえ、それだけでも意味はあります。それに今回は報告できませんでしたが、ほかのデータと組み合わせると精度を高められる感触も得ています」(千趣会マーケティング部の西口浩司 戦略顧客チーム・マネージャー)。

 この言葉にあるように、伝統的なDWHを使って分析を行ってきた千趣会にすれば、顕著な成果こそまだ得られていないものの発表テーマの通り、「新しい分析世界」と言えるだろう。

「Analytics First」の実践が求められる

 ここまで読んできて、3つの事例発表の共通点に気づかれただろうか?冒頭でも書いたが、最初に明確な事業目標や何らかの課題があり、それを達成するためにデータ分析の環境を整備したり、分析したりしているようには見えないことである。むしろ「すぐに必要ではないデータも役に立ちそうにないデータも今、蓄積しておかなければ2度と入手できない。だから蓄積する」(eBay)といった考え方に近い。

 Dellもデータ分析を促進し、高度化するにはどうすればいいかが中心で、事業成果やビジネス貢献の話はなかった。「BI環境は整備して当然」といったスタンスである。実際、ROIを最初に考える必要があったとすれば、Sandboxのように成果が見えにくい取り組みは実践できなかっただろう。

 千趣会も同じ。Teradata Asterを導入し、専任のチームを置いているからこそ、高度なビッグデータ分析に挑戦できている。何からの稟議書は間違いなく書いているにせよ、AsterなどのROIをシビアに問われていれば、今回の取り組みはできていなかった可能性がある。

 これを「eBayやDellだから」という理由で特別視することは合理的ではない。米銀大手のWells Fargoやスェーデンのボルボ(自動車)、映画などのストリーミング配信最大手である米NetFlix、医療機器の米GE Healthcareの発表も聞いたが、いずれも同様な傾向だったからだ。最近のはやり言葉を範にとれば、「Analytics First」である。

 一方で、ストレージ容量当たり単価は20年前に比べ3万分の1近くに下がり、CPUリソースも安価になった。高度なビッグデータ分析用ソフトも、商用/オープンソースを問わず豊富にある。であれば、何はともあれAnalytics Firstでやってみる−−。そんな姿勢が求められる時代が到来したと言えるかも知れない。

関連記事

トピックス

[Sponsored]

【PARTNERS 2014報告】米eBayの100PB超のデータ分析など最新ビッグデータ活用事例が続々 [ 3/3 ] 米国ではデータを分析し、経営や事業に生かすことが常識になっているのかも知れない。それも人事や会計、生産管理といった定型業務とほぼ同じレベルで業務に溶け込んでいる−−。2014年10月下旬に開催されたカンファレンス「PARTNERS 2014」(主催は米テラデータのユーザー組織)に参加し、数々の事例に触れる中で、その思いは確信に近いものになった。

PAGE TOP