ビッグデータ分析と同様に。

ITエンジニアの『生産性』と、データ・サイエンスの微妙な関係 : タイム・コンサルタントの日誌から」を見て。
うーん。

SIerであり、データサイエンスに片足突っ込んでいるものの、自分の元いたのは、化学の中でも化学プロセスコースで、実際の話もちょっとは知っているのだけど。

工場の中で測定されたデータは、実は決して理想形にはならず、工場独自の知見をある程度集めて初めて「使い物」になる。
工場建設に際しての話をもう少し丁寧にすれば、実験室スケールやシミュレーションで反応率とかの設計を行うが、それを何段階かのテストプラントを経て構築する。で、構築した後の実際の工場建設でも建設中のトラブルとかを乗り越え〜ってのがあるのだけど、コレばっかりは個別の工場最適化の方が重要になる。

最近ビッグデータという言葉が喧しいが、自分が最も懸念しているのが、この現象がビッグデータ解析にも現れるだろう、という事だ。
掃除機が欲しい、と思って行動する人と、本が欲しい、と思って行動する人の行動記録が、ほぼ同じように動く事を想定しているということを、マーケティングの人は気付いているだろうか。
パソコンとオーブントースターをバスケット分析とかしてたらそりゃおかしいと気付かないといけない訳。
仕事でも、ビッグデータ解析は、ほぼ見える化やDWH構築の為の「売り文句」ではあるものの、本格的に分析するには人が足りない(その業務でそのデータを長いこと眺めてた人分析のイロハを知っている人)。

人間の比較というのも、まあそういう所が得てしてある。
人間の生産性について分析出来るほどの要素も含めたデータを採取出来ているとは到底思えず。その為に十年泥を被る人もそうはいない。

大量人員を確保しての開発作業というのがどんどん減ってきている現状、開発指標の話は当面置き去りになるだろう、という事はよく考える。
計測出来て確実に影響するような項目は、器械やシステムでどんどん無駄として省いているのが、"人間"を使うという現場なので。
いやホント、一人しか稼働していないシステム開発の効率とか言われても(´・ω・`)知らんがな。