1 2018/10/11(木)
人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。

ロイター通信の報道によると、2014年、アマゾンは就職希望者に対して1つ星から5つ星でランク付けをする自動システムの開発に着手した。しかし、このシステムが技術職において男性志願者を優遇していることが分かり、2017年に廃止した。

このAIツールは、アマゾンがそれまで10年間に渡って受け取ってきた履歴書のデータを元に訓練された。テクノロジー産業は男性優位分野であるため、履歴書の大部分は男性から送られてきたものだった。

システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。

(略)

2018年10月11日 10時24分
アスキー
http://ascii.jp/elem/000/001/755/1755527/



5
性別をインプットから抜けばいいだろ
それでも偏るならそういうことだ


8
>>5
ちゃんと読んだか?
性別欄見てるわけじゃないぞ


25
>>5
出身校名に女子が入ってたみたいよ
性別は見てないんじゃない?


12
東京医科大学が作ったAIか?




9
そのAIが何を学習した結果、そういう点数をつけるようになったのかが知りたい。


557
>>9
就職した人の割合じゃなくて、人数でカウントしたんじゃない?
〇〇女子大⇒応募人数が少ない⇒採用少ない
大半が男性⇒応募が多い⇒採用人数も多い

の真ん中飛ばして
〇〇女子大⇒採用少ない


15
AIはオレたちの社会をベースに教育されてる
オレたちの社会をベースにしなければそのAIを何に使う?そのAIが何に適してるかどこの誰が判断できるよ?
AI万能論はやめろ
くだらん


539
>>15
AIの仕組み自体が、マジョリティー優遇だからな。


924
>>15
悪しき伝統も継承するアホつうことだしね


42
AIに任せると世の中がこうなる


51
廃止すべきは女子大だの男子校だろ


58
AI「言いたいことも言えないこんな世の中じゃ…潰すしかないな」
そしてスカイネットへ


69
海外で問題になってるアマゾンの雇用問題考えろよ
男のが奴隷としてよく働くってことなんだよ


74
アマゾンに向いてないってだけで
他にも職は幾らでもあるだろう


110
こういう文脈のAIつまりディープ・ラーニングって、要は「すんげえ複雑な条件反射」でしかない。


114
この間の医大の件で日本を散々ディスってたのに
どこでもやってんじゃん。


117
> 報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。
該当する経歴の者たちのパフォーマンスが悪い、マイナス面が目立つ、ってことじゃないか?
そりゃ、そういう扱いになるのは仕方ないんじゃ・・・


130
>>117
社会構造的に女性だと実際の能力とは別に昇進などの評価面が悪くなる傾向があるってのは確かに大なり小なりあるからねえ。
実際にパフォーマンスが悪いのか評価が悪いのかを判定するのは難しいわな。そしてソレがあからさまに明らかになるとまた色々と問題が出てくるし。


125
ビッグデータによるバイアスって結局はこの手の差別(区別)の積み重ねだろ
今回男女差っていう分かりやすいところが顕在化しただけで
いまさらここだけ廃止にしてもどうしようもねえよ


230
偏りがないデータなんか作る手間考えたら、在るものぶちこめってなるだろ。
そもそもなんに照らして片寄ってないって判断するんだよ?


239
>>230
そもそも漠然と優秀な人を、ってAIに問うても答えが返って来る訳がないだろう。


243
AIっていっても作るのが人である以上、完全なる中立は無いだろうし
人間の成長と一緒でどんな環境で学習したかが重要になるんだろう。

AIなんてのは人間が作り出した幻想に過ぎない気がする。
一種の信仰ともいえる。


270
人間が採用しても問題なくね?この程度なら


274
>>270
大手ほど誰でも良かったりする
厳密には問題を起こしそうにない奴
何かが優れてるとか別に要らんよ


278
>>274
解雇できないからね


285
>>274
一定以上の知能常識コミュ力さえあれば高い能力なんていらんのよな
仕事のやり方なんて先輩から全部教わるのをトレースするだけ
取引先もすでに縦横にネットワークは構築済み
自分じゃなきゃできない仕事なんて一つもないのが現実


271
これからどんどんAIに置き換わっていくんなら人間いらないになるんだろうなぁ


273
>>271
労働者はいらなくなっていくだろうね


294
実際プログラミングやシステム開発に興味を持つのが男が多いからしゃーないだろ
興味と意欲の面で男のがいいとAIが判断した結果やん
他の要素に関して問題ないのに性がつくと拒否反応を起こす
高度なシステム開発において重要な数学や抽象的思考は男のが優れてるのは統計から出てるし
実際、著名な数学と理論物理学と経済学なんて男が99%やん
言語や並列処理は女のが優れてる
差別でもなんでもない。得意分野が違うだけ


314
そもそもAIは現在の社会を学習して濃縮した結果でしかないんだから
社会が男性優遇ならAIもそういう結果を出すのは正解だわ。
AIの出す結果が気に食わないんなら社会を変えるべきでw


320
ビッグデータによる傾向や確率でAIが判断してるから、今後はAIによる偏見が増えそう。


325
人類が消えてもAIが人間と同じようにくだらないこと始めそうだな


330
人間をなぞらえた知能だけあって人間と同じ失敗をするんだな。
偏見にまみれたAIが一番人間に近いんじゃねw
マイクロソフトのAIも過激思想に染まって停止されたよね。


399
AIがネットで学習するとヒoラー崇拝、ホロコースト否定の極右化するからな

学習元データがダメだと、ダメなまま学習してしまう


406
おそらく実際に採用される人間や勤続が長いのが男が多いので、
AIは先回りして男を優先的に採用しはじめたんだろうなぁぁ。


415
>>406
アメリカで勤続年数の長さってどれくらい評価されるもんなんだろ。
日本みたいに新卒カード最上位でなく優秀な中途入れてなんぼの雇用形態だし。


422
>>415
アメリカなんか数回ステップアップで転職
当たり前なんじゃ?


433
利益最大化をなんの歪みも先入観もなく
AIに選ばしたら男ばっかになるよそりゃ


444
>>433
会社の利益は子供を産んではくれないことを考慮した学習させたらいいのかな
産休育休の必要性を人工知能に叩き込むw
なんかいろいろ怖いな人工知能って


471
>>444
広い視野で長い目で見れば子供を産む事は会社の利益でもなるんだからな
将来の顧客なんだし
トヨタなんかは社員の給料を絞り過ぎて顧客である社員が車を買えないようにしてしまった
社会全体のAIを教育すべきかもしれん


447
これからはAI!って盛り上がってる人がいるけど
喰わせるデータ次第でどうにでもなっちゃうのがAI
だいぶ前に美人判定するAI作ったら製作者達の趣味が反映されて
ooはブスと判定するAIになっていたというのがあっただろ


498
差別的な人間から学ぶんだからAIも差別的になるわなw


448
AIっていってもこれは「考えてる」わけではないということだね
過去の人間の判断結果を再現するだけだと
それが正しいという前提が崩れたら使えない


585
要はamazonが今まで差別的な採用の仕方してたってことだろう
機械がそれを再現したら破棄されるとか、心があったらナンデヤネンとか思ってたかもなー


632
エンジニア、つまり能力的に男性に有利な分野のデータを解析したらそうなるわな。
反対に女性に有利なコミニケーション能力分野でそれやったら女性を優先するアルゴリズムになるよね。


676
>>632
看護師とか保母さんなんかはそうなるよな
AIは過去の結果を元に予測を立てるわけだから、保守的な結果になっていくだけ


648
結局人が判断するなら世話ないな






引用: 【女性差別】「女子大卒は減点」アマゾンのAI採用、男性優遇判明で廃止に