「スシロー、ビッグデータ分析し寿司流す 廃棄量75%減 :日本経済新聞」を見て。
これをいちいちビッグデータ分析というのは微妙なんだよなあと思いつつ、リアルタイムデータ分析というにもデータ分析自体はリアルタイム性はないし面倒だなあと思う。
顧客分析活用とかそんな感じかなあ。
多分、スシローの情報システム部門は勘違いはしてないと思うけど、記者が勝手にビッグデータ分析に突っ込んだんだと思う。
情報システム部門の考え方は非常に正しい。「分析した所で末端のオペレーションが出来ないような分析では仕方がない」から。それに、わりとシンプルな構図での目標を掲げている。
あと、多くの人は理解していないと思うが、ここでの最も大きな成果は、「顧客に対応する」という発想が出来た事が一番大きな成果であり。
顧客が実際に推定しているモデル通りに食っているかどうかはかんなり適当でも十分。そのうちフィードバックするとは思うが、とりあえずは、客がやってきて寿司食うという際に注文するプロセスをモデル化出来てそれに沿って予想が立てられているという事が大きい。
実は、下方な予測であれば、客が注文するので、上方ズレだけが困るわけだ。特に、マイナーなネタは客数が少ない時にはわりと無駄になりやすい。マグロがあふれるよりも玉子があふれる方が廃棄になりやすいのは単純に理解されるのではないだろうか。
統計解析の名の下に、こういう事はしばしば行われる。
もう慣れた。
BIツール大流行の時にも感じたが、まあ、そもそもの、例えばソフトウェア開発であっても、実は「社内作業マニュアル化・標準化」の効果の方が大きいとかそんな事はたくさんある。
悪いとは言わないが、
「これがビッグデータ活用の例や!」
みたいな事を、匿名で言う気は全くしない。
:
:
:
:
:
仕事上では、言わされるポジションに行きたくないなー。
ほらさあ、どこかで良心的な人がいないとさ、将来的には信用失うじゃん。
まあみんな騙されたよね的なフリして暮らすのもいいけど、頼られると流石に罪悪感あるのでなー。
:
:
:
:
あと、ビッグデータは、しばしば、
「正規化されてないから無駄にデカいデータ」を指す。
プログラムで工夫出来ない人が解析する事によって無駄に時間が掛かってるって話は幾らでもある。
解析手法でも、本当にはそんだけアホなサイズを必要とする訳じゃないので、計算時間の無駄もよくある。
少数例数での統計手法選択、とは違った、ビッグデータなんでどうやってデータ適当にしましょっかって手法を考えるべきだしなあ。