データセットを変えれば使える、とは検証されてないんだよね。


「モザイク画像の解像度を64倍にする研究」が人種差別の議論に発展、非難を集めた研究者はアカウントを停止 - GIGAZINE

 

滅茶苦茶簡単に言うと、「白人向けデータで研究された結果は、黒人や黄色の人に適用出来るとは限らない、そこから考えないといけない」話です。

モザイク除去と名付けられたそれは、白人のデータセットを元に作られた「アルゴリズム」を元に生成されているのであり、今多くの顔識別が出回っているのですが、例えばAppleのFaceIDは中国の例でだいぶ騒がれてました。

自信満々に宣伝した割合の誤認識ではなく、明らかに黄色人種が分からなかったようです。

そんな感じで、喧伝された性能とは違うとか、困るのが「歪んだ結果が出ているのにどうも話を矮小化する人等」です。データセットだけの問題じゃないんですよ。エスタブリッシュメント層のアメリカ=世界みたいになっているある種の傲慢さが出ているというやつです。

 

 

BLMの話だと、同じ国の中に白い人と黒い人といるのでそれが生存を脅かす話になるのですが、

白人の警官が黒人の見分けが付かず、というのの、機械学習版なんです。

 

発展途上で実用レベルじゃないと思うんですが、この手のヤツもう結構入ってきていて、実際FaceIDは中国人は見分けついてないようなんですよ。

アメリカの警察で導入された監視カメラから人を認識させるやつ、黒人の誤認識率95%くらいあるとかないとか、無茶苦茶ですよ。ハッキリ言うけど、この世界に滅茶苦茶金入ったけど、で、どうしてこんなのも達成出来てないの?

StyleGAN、顔画像少ない時に学習用データ作るのに使われてたりするんですが、例えば荒い画像から元の顔を再現とかされる場合に、別人にされたりするの超危険じゃないかと思います。明らかに人種差別が含まれるのに、これ現実に使えますか?

 

 

ポリコレじゃない、サイエンスの問題です。