1 2019/02/21(木) 00:30
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。

マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。

比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。

つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。

(略)

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。
(略)
※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1  .



3
機械を作ってるのが男だからな


14
AIは実はまだAIじゃない だからだよ


24
性別に関するデータを与えなければいいのでは?




34
与えたデータが正しくないと決めつけてる時点で公平中立な視点・態度じゃないということ
絶対的に正しい価値観などない


35
>>1
そもそもAIの中立性とはなに?
AI大統領とか誕生しても結局人間の紐付きだろう


44
空気を読んだり忖度したり
そんなAIが必要だな


48
つか、AIって女が嫌いっていうよりも
人類が嫌いってソフィアが言ってたじゃん
おまえら(人類)滅ぼすってさ


54
>>48
好き嫌いなんてないよw
ただの統計。

ただし、むき出しの冷酷な統計は、人間の幻想を破壊する。


52
マイクロソフトが作ったAIもヘイト発言で公開中止になってたよな


78
性別の違いを考える必要があるんか
そんなもん不要やろ


80
現状も考慮するからそうなるわ。出産退職もあるし
すでに社会で完全に平等になってからでないと


81
能力はともかく顔認識で間違えまくるのはAIに欠陥があるのではなかろうか


94
多分だけど、真の中立的AIが完成したら

人そのものがAIに排斥されるんだろうなw


96
中立が正確とは限らない


106
女の考え男の考えとかそこまでAIは考えてないってのが笑える
女性という単語に反応して評価を下げたら手っ取り早く判断できるってことを学習しているに過ぎない


110
AIに好きとか嫌いの概念は無い。
もっと冷静に合理的な計算をしての結果でしょうよ


113
AIは東京医大の女性差別と全く同じ原理で動作しているというのが笑える


131
まあ、食わすデータによって偏るのは当然だわな。
なのでスカイネットになる可能性だってある。


144
今言ってるAIなるものは、単にネット上の発言内容を平均化してるだけだから
それが某の知性体の考え出した結論というわけではない。

単に「ネット上に」、その種の偏見のある書き込みが多くあるって話でしかない


145
男が作った世界は男有利なのは当たり前って話じゃないの
男性性がプラスになるのなら男性性が強い人が選ばれる


150
女性嫌いAIに自動運転とか世も末だな


152
つまりこれまで企業は女性に関して機械的に評価を下げてきたことの反映だろ?
今の弱いAIには価値判断なんてできないんだから
人間がやってきた前例踏襲をコンピュータで超高速にやってるだけだろ


168
>>152
あぁ結局それかもな。
大して具体例が集まらないモノを
学習するには今のAIじゃ無理があるな。


163
>>152
そうそう、人間の男尊女卑社会の鏡として平均値が出てるだけで

AIなる知性が何かを考えてるわけではない


180
>>163
人間が男尊女卑とか頭大丈夫?

どうみても女尊男卑だけど。


190
>>180
心配無用。俺は全く論理的だ。

今のAIと呼ばれてるものは高速平均値算出装置で、何かを思考してる機械じゃない
という大前提がある。


161
女性がする役割ってなってるものをするのに最適な人を選べってなると逆転するんじゃないかな


177
女性嫌いっていうか過去に技術職に男性が多かったってことでしょ
保育士や看護師の採用だったら逆なんじゃないん


187
まぁAIが出来ることは
まだまだ金勘定、あとは単純作業くらいってことやね。


189
なににでもザラキのあいつと同じだよ


205
異性に間違われると不利になるとは一体どういう理由なの?
それがよく分からないけど、人間が聞いてもよく分からない理由を
お前、女嫌いだろ!言われてもAIも理解不能…って感じるだろな
ま、それは置いといて

履歴書を基に五段階評価で女性が不利な結果が出たのなら
普通に男女分けて選考すれば?と感じてしまうけど

でも元から職種で企業の求める人材って偏りない?
エンジニアが男向きと言う訳ではないけど
過去の採用データーに沿ってるなら
AIが評価の理由にしたこと自体は間違いではないのかもと思う。
要は企業が女性を同数採用したいのであれば
そこに修正を加えられるようにしろということでしょ

で、過去のデータで評価に偏りが出るとすると
性別以外にもいろんな理由で弾かれてる問題も生じてるはずだろうし

AIが女性嫌いという視点だけで問題視すると
却って見当違いの混乱を招きそう


229
女が幸せはな、
・男の真似をすることと
・男から評価されること
これ以外にない

せやから男の行動だけ考慮すればエエんや
簡単な話


233
>>229
旧来はね。
これからは変化するから、刮目したら


230
単純に女はマシンスペックが低いからじゃね?
それこそ社会通念関係なく、労働力という面でAIは選んでるんだろ


249
>>230
アスリートの性別を人格ではなく筋力で分けるという単純な公言が何故されないかというと
単純に考えて、ある面何事も筋力で区別している自覚をあまり人々は持ってないんだね。


235
「AI」とやらに価値判断はできないよ。
演算しているだけ。
擬人化が過ぎる。
夢見過ぎ。
大概の人には意味わからんだろうがな。


241
>>235
擬人化してもいいと思うよ。
人間だって物質の塊でしかないのだから。


254
AIでは平等になりそうにないな
50%は女性がOSにならないと無理だろね
しかも世界各国の


259
だから、今言ってるAIってのはネット上の書き込みを平均化してるだけで
何も考えてないっちゅうの
ネット上の書き込みの平均値としての価値観を示してるだけで
それは人間の表層意見の鏡でしか無い。


264
>>259
平均化するってAIも確かに存在するけど、
それだけじゃないよ


269
>>259
それさえもまだまだ達成できてないと思うよ。
君の言い方を借りれば、開発者の表層意見の鏡程度。


289
中立=最適
ではないからだろ
AIの強みは最適化だろうし


290
俺的にはシンギュラリティ(技術的特異点)が来るまではAIがまともにAIとして振舞うか懐疑的なんだよね


311
勤め先でちょっとデータ担当でAI関連やってたけど、
AIは取り込む情報を食べ物とすると全てが食べ物次第
色々あって偏ったの食べさせたり、
自分で食べに行ったものが女性嫌いになるようなものだったら、
そりゃ女性嫌いになると思う
自分で食べに行かせるのにも技術者さんと学者さんと私たちが定義というか設定するのに話合いなるものをするんだけど
そこら辺どういう設定したのか、1の記事だと全くわからない
男性ばっかだから男性優位?みたいなのは記事から匂ってくるけど
これだけじゃよく分からない
どっちかというとAIが女性嫌いなんじゃなくて、
社会がそういう目で女性を見ているのかなってちょっと思ったけど
データ取れないから何とも


335
>>311
日本人の読解力の低さというのが近々の話題だけど
あなたのお話も解る人は少なそうね


345
>>311
現状だと単なるひとまねこざる以下の代物に過ぎなくて知能と呼ぶにはあまりにもお粗末なんだよな


313
男性がしてきた採用基準をAIにパタン認識させたら、男性と同じ採用基準になったというのが今回のAI問題w
当たり前だろと。

一番面白いところは、そのうち1割は女であっても男に見えたってことだろw


342
>>313
これは面白い因果関係を示しているのかもしれなくて、
身体の全体構造は女性をベースに改造して男性の身体構造ができているという
話はよく知られているが、
女性の特徴的な外見は女性固有の内分泌器官の効果で形成されていて
その働きが弱いとベースになっている男性の外見に近くなるとかいう
仮説を提示したのかもしれない。

実際のところを考えても、経験上、高齢者は見分けがつきにくい気がする。


349
>>342
いやいや、髭(とハゲ)以外に顔に性差はないという人類学的な結果がある。
顔で性差を認識できるのは、化粧や髪形、ひげをそるなど文化的要因ぐらいしかないんだと。


346
男女平等なんて絶対に無理に絶対に無理だと思ってる
だって男女には得意不得意があって絶対的に有利不利が存在するから

男女平等だからって女性が宅配便で重い荷物運びをするような世の中は間違ってると思うぞ?
AIの分野で女性的な思考が不利ってだけ






引用: 【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)