あるいは、夢見がちな人々が、どんどん現実感を薄めていくというお話。
面白い。web3は「日常に頻出しない」は多分その通りなんですが、
— けんすう/『物語思考』4万部突破 (@kensuu) 2023年12月21日
- 株式会社の株を日常的にやり取りしている人は少数派
- 多くの人は「やったこともない」「よくわからない」とすら思っている
- しかし、身の回りのものはほぼ全て、株式会社が作ったもの… https://t.co/cxnAerDMwF
ビッグデータ解析
ビッグデータ解析、Hadoop、Google Big Dataなんかは、一時期すべての未来を変えるような事を言われたが、結論として案外狭い範囲にとどまる。
そもそもあるビッグデータの解析として、OLAP等の仕掛けがあるにはあった
会社への影響としては、主に基幹系で導入だが、結局のところデータのクリーニングに関してのコストが大して下がりはしなかった
レガシーのシステムの置き換えの側面が強調され、レガシーのまま載せられた
例外的にマーケティング分野、サーバログ関連は比較的積極的に導入されたが、解析に関しては高度化は全然していない。
余談だが、世の中のA/Bテスト、テストとしてやるのは良いことなのだが、統計解析という手法はあんまり使わなくていい。使ってもχ二乗検定レベルで十分で、なんとなればサンプルサイズが十分大きいから。
統計解析の手法は、ごく少数のサンプルでやるからこそ背景として統計分布に乗る仮説が必要。
もう少し突っ込んでいうと、例えば売上予測とかで重要なのは統計手法に関わらず大事な外部要因をどれだけ取り込めるかによるのだが。要因数が膨大だと結構これどんな将来でも予測の範囲になってしまうという問題になる為、冷静な将来読みが必要で、そしてそれでも感染症の流行等の突発的イベントは予想不可能である。
レコメンド用のデータ解析ですら、自動的な仕掛けが時々変わる事、が一番大きな要素であり、実際にオススメされるものが正しいかどうかという事は、実のところ重要ではなかったりする。
Google検索の精度が上がっているとかはみんな思ってないし、YouTubeのオススメはマンネリ化の打破が重要である事は気付いているだろう。
変な話、乱暴にやって問題ない、新しい技術で過去出来なかった事が出来るようになった、が第一義であり、実際のところコスパいいのと言われるととっても微妙だったりする。
AI
画像AI系は結構進んだ。
これは、「今まで数値化定量化されておらず、自由生成がルール見出されてない」分野、人力の分野だった事は大きい。
大きいのだが、判別性は実のところあんまり上がってない。
ChatGPTは、「テキストで回答が得られる」、ある意味ホントにAIっぽいのだが、実のところ「答え方が人間っぽいのだが、答えの正確性は結構難しい」、コールセンターのライバルまでは可能だが、どちらかというとコールセンターのバックヤードで活用されるか?というところで止まりそうだ。
無論、人間の労力を減らせはするのだが、そこではやはり自動化というよりは機械化、人間の代替は難しいだろうという結論にはなるし、省力化された業務に割り当てられる人間は過去よりもっと経験値がつめない状況になり品質としては下がらざるを得ないだろうという予測もつく。
例えば、ファントムブレーキの状況がまだある自動運転においてそれを活用すると、「とっさの時にだけ人間が操作する」というピーキーなときだけ判断させられるという事になり、そこの経験というのは回数もない訳で、人間の学習に問題が残る。
昔新幹線の運転の話で、「ホントは自動運転可能だが、問題ある時だけ操作するような形にすると、運転手が眠くなったり操作を誤りやすいのではという事でそれが取りやめになった」というような話を聞いた事があるんだが(曖昧)、多分それに近い状況になる。
我々の業務で何で人力が残されているのか、という事をむしろ考えるべきで、実のところデジタル更新が進んでないところが大きい。
入力フォーマットが固まらない→毎年何らかの見直しとかが発生して項目が増える、カテゴリが増える、だの。そういうガタガタなデータを整理して経年情報として解析する、だの。
何十年も旧式のシリアル接続なセンサーでやってたのの、なんとかネットワークで収集するように変更するだの。
ホスト時代って多分半世紀は昔の遺物のメンテをそろそろ止めたいだの。
そもそも定期メンテがあまりにもあまりにも滞っているものの更新が主目的にしかなってないのではと思わされる事が沢山ある。
AIが出してくれるコードをコピペして高速化してバカみたいにテストを量産するくらいならいやどこかにこれ製品化しているところあるだろそもそもというところが、ビジネスだとか競争だとかで無駄に生産されているのが、うんいやマジでなんだろうな我々の仕事、と思うことは多い。
ブロックチェーン
中央集権的サーバを配した、P2P上でもやれる何か、ではあるんだが、結局のところ、中央集権的サーバの冗長化・バックアップ運営と、沢山のサーバ群とそのネットワーク維持と、どっちが楽なのか競争で今んところ前者が安定だなと思っている。
何より、後者はその仕掛けに必要な計算量も含めて無駄が大きい。ガス代として徴収されるコストを手数料と考えると結構大きくね?
近年金融とかで起こっている障害で、ブロックチェーンなら防げた、という障害はおそらくない。
RPA
レガシーシステムで人間がポチポチ入力していたものを自動化、というところが主になっていて、まあそれはそれでいいのだが。
いやもうそれならシステム新しくする方が本筋だと思うが、レガシーExcel VBAと同じ問題を孕んでいると思うんだがな。
ちゃんと業務を分析して、無駄を無くしたりする方が本筋だと思うぞ。
そもそも技術の前提としてある「会社のあるべき姿」から乖離している会社の現状がある
いやまあ、製薬会社の治験業務を請け負っているCROの立場で言う事じゃないかもだが。
治験業務の大半を委託している製薬会社の中の人等の能力って、ヤバいよね。何されるか分かってないんだもの。
当然ながら会社境界線のせいで、効率化ってのも相当阻まれてるし。
今の日本社会の体制って、「安いAIとして別会社に業務委託する」ってのが当たり前に横行しているので、AI導入とか費用対効果見合わない・業務を単純に考えている階層がプランナーとかになっているのでそもそもが効果ねえとか当たり前になってる。
システム開発でもそうだろう。なんだかモノ見て要件を追加してきたり、細々した話を最初は全然してこないとか。
そりゃ効率悪いわどんな開発手法取ろうが。スクラムとかはそもそも要件整理出来ないだろうからまあしゃあないわって妥協の産物だと思う。だから、依頼側に責任感をもたせようとするとチームに組み入れるのもだが結局ちゃんと要件整理して出させてその文書を固めるとかそういう必要があるんだよな。
今の大阪万博みたいなものに、幾らコンピューター・テクノロジーをぶっ込んでも無駄だし、無駄が多いのはこういうやつだし、大して利便性も上がらんコストカットも寒い程度なんですわ。