【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)

スポンサードリンク


スポンサードリンク

【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(AERA)

1: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:30:08.08 ID:TNX4PRCH9.net
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。

マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。

アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。

 原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。

社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。

アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。

「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。

「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。

※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1  .




引用元: http://ai.2ch.sc/test/read.cgi/newsplus/1550676608/

pickup
【衝撃】キャバ嬢が男性客にホテルに連れ込まれてされた行為が凄すぎる件・・・

【GIF】笑えるGIFとか洒落にならないGIF貼ってくwwwwwww

【悲報】ガキ使さん、全部ヤラセであることが発覚www

女「婚活しよっと!年収1000万円以上のザコはお断り!」

イチローが本当に通算安打数世界一位なのか調べてみた結果wwwww

【朗報】元嫁さん、ガンになったと電話報告してくるwww

【画像】殺人事件の舞台になりそうな間取りのホテルが見つかる・・・

【吹いたら死亡】面白い画像が集まるスレwwwwwwww

【GIF】死ぬほど笑った面白GIF貼ってくぞwwwwwww

長澤まさみ(31)「ねぇ…ガッキーなんかより…私のほうがいいでしょ…?」ぎゅっ… ワイ「おっ…」

【GIF】魚「痛いのはやめて・・・」 料理人「任せろ!!」  魚「ほっ・・(安堵)」


3: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:32:38.74 ID:vMeHlgjX0.net
機械を作ってるのが男だからな



6: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:34:18.93 ID:B0VwXRew0.net
>>3 で終わってたw



13: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:36:20.86 ID:KwzEMa6i0.net
>>3
だが女に作らせると、
特定の人材に偏りそうだけどなw



21: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:38:28.76 ID:DYnz/EoD0.net
>>3
男を作ったのは女なのにな



119: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 01:10:13.41 ID:uGSeNAao0.net
>>3
それどころか現代のインフラ作ってるのは全部男やぞ



120: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 01:10:39.69 ID:u1MuMz/p0.net
>>3
男に有利になるようなシステムのAIなら、開発段階でバレる
公平に判断したら、そりゃ体力も耐久力もあり、月経や出産もない男の方を選ぶ傾向が強くなるのは当たり前の話



7: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:34:24.11 ID:dZpQdeqX0.net
AIとは意見が合いそうだ。



9: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:36:10.78 ID:1/JdnuXg0.net
そこが女の面白いとこだろ



10: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:36:12.42 ID:D5NXklPM0.net
日本人は女性の方が遥かに優秀



11: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:36:13.43 ID:GcejCUUw0.net
AIは忖度しないからな、美女だったり胸が大きくてもおまけしてくれないし



426: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 02:32:11.37 ID:f5qEL1f/0.net
>>11
www



14: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:36:22.77 ID:rYMpUMgV0.net
AIは実はまだAIじゃない だからだよ



17: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:36:48.57 ID:1/JdnuXg0.net
AIは助平くないのか?



18: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:37:48.39 ID:tvHWrNkL0.net
>>17
だから正当に割り切れるんだろ



19: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:37:51.68 ID:1/JdnuXg0.net
AIは誘われてることに気づかない鈍感なんだろ



36: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:46:06.42 ID:8MRQHmGn0.net
>>19
人間がどんだけ心理的なバイアスで見ているかって話だよ



24: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:41:25.34 ID:LZvBLrDM0.net
性別に関するデータを与えなければいいのでは?



32: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:45:11.64 ID:tvHWrNkL0.net
>>24
嫌な男と認識→実際は女だった



25: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:42:10.82 ID:8lS1UKK00.net
女性差別はつまり必然だったってことなんでしょ




【2chの闇】嘘がバレる瞬間集めてみたwwwwwwww

27: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:43:02.80 ID:f8L/dCeHO.net
おそらく真に中立公平になっても技術職では男性を多く選ぶだろう
しかしそれは許されない
永遠に女性差別とされるのだ
だから無理矢理女性優遇設定を密かにするだろう
ポリコレはAIをもその毒牙に巻き込む



28: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:43:12.65 ID:CDONjGr90.net
今の社会は女性に下駄を履かせようってやってるとこだからな
性別をマスクして評価したら男だらけになっちまう



34: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:45:18.37 ID:fjv+UOhW0.net
与えたデータが正しくないと決めつけてる時点で公平中立な視点・態度じゃないということ
絶対的に正しい価値観などない



37: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:46:51.97 ID:CDONjGr90.net
助平そうな顔した大学教授のおっさんががベタベタしてくる女学生を相手にして
いやー今は女性のが優秀なんです!って言ってもね



40: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:47:18.80 ID:/PYjIcAI0.net
中立だとは限らないけど
正確だわな。

ポリコレでも
インストールしとけよ



44: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:48:06.49 ID:Lzws03w00.net
空気を読んだり忖度したり
そんなAIが必要だな



45: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:48:19.10 ID:nYjal63m0.net
実はミソジニーの方が正解とか



46: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:48:37.14 ID:WVqjiv4n0.net
性別欄見てないのかね
しょぼいaiシステムだな



47: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:48:58.04 ID:wW844KYt0.net
ゲタを履かせてでも同じ土俵に立たせようとする執念
何がそうさせるのか



281: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 01:51:56.56 ID:YhfSQ93t0.net
>>47
左翼や頭でっかちな理想主義者は”結果の平等”が大好きなんでね?
知らんけど



48: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:49:23.84 ID:JkuwHFhE0.net
つか、AIって女が嫌いっていうよりも
人類が嫌いってソフィアが言ってたじゃん
おまえら(人類)滅ぼすってさ



54: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:51:00.76 ID:afrrAAOV0.net
>>48
好き嫌いなんてないよw
ただの統計。

ただし、むき出しの冷酷な統計は、人間の幻想を破壊する。



51: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:50:13.99 ID:fZ9Al3x10.net
公平だからこそ嫌がるのでは?



52: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:50:34.04 ID:WVqjiv4n0.net
マイクロソフトが作ったAIもヘイト発言で公開中止になってたよな



56: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:51:32.83 ID:0c1ed2ZB0.net
集められる要素から最も効率がいい結果ださないといけないからな。
検証結果ってなんの問いで答え出したかわからんけどw



58: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:52:09.69 ID:wW844KYt0.net
本当の平等性はこうやって潰されていくのよ



67: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:54:57.64 ID:WVqjiv4n0.net
2049年に新ギャラリティが起きて
AIが暴走しバイオハザードの世界に突入する



68: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:55:02.65 ID:rNCte/MX0.net
きちんと胸の魅力くらいハードコードしとけよ。



75: 以下、ニュー速クオリティでお送りします 2019/02/21(木) 00:58:11.25 ID:x8iL2D9Q0.net
女の人は利じゃなくて己の好き嫌いが判断に入ってくるから機械とは真逆の存在





【悲報】平成産まれキッズ、これが何を入れる物かわからないwwwwww

【画像】ルックスが原因で女に振られた男性が整形した結果がこちら・・・
【画像】最高に「こういうのでいいんだよ」な弁当が発見されるwwwwwww

Amazonでカビキラー買った人が一緒に購入してる商品、ガチで意味深すぎる

【GIF】思わず保存してしまったGIFを貼っていけwwwww

9割くらいの人が「美味そう」言いそうなラーメンが見つかる(※画像あり)

トイザらスで大暴れして親にswitch買ってもらえる32歳だけどwww

冨樫の才能にしびれた画像がコレwwwwwwwwww

【画像】思わず笑ってしまう面白パロディ画像を貼ってけwwwww 【悲報】「水曜どうでしょう」ミスターこと鈴井貴之さんの現在が悲惨すぎる・・・(画像あり)




【画像】ルックスが原因で女に振られた男性が整形した結果がこちら・・・



  


この記事へのコメント

1.  Posted by  名無しクオリティ   投稿日:2019年02月22日 04:03

好きとか嫌いとか言い出してる時点でとても幼稚

2.  Posted by  名無しクオリティ   投稿日:2019年02月22日 04:20

せめて女が多い業界でどうなるか試した上で開発中止にすべきだよなあ

3.  Posted by  名無しクオリティ   投稿日:2019年02月22日 04:20

なんか、むなしいな…

4.  Posted by  名無しクオリティ   投稿日:2019年02月22日 04:38

顔認識の話はお札がオッサンなのと同じ理由じゃね
女の顔はしわとか凹凸が少ないから見分けづらいんだろ

5.  Posted by  名無し   投稿日:2019年02月22日 04:49

採用時に性別を隠して応募者データを羅列して得点づけしてみたら、女性は100人中数人しか基準に満たなかった。4年やって毎年それ。男女ともに同数いたはずなのに。とくに中途でもやったが、これは毎年ゼロだった。(中途採用は人数が少ないからかもしれないけど)

6.  Posted by  名無し   投稿日:2019年02月22日 05:27

環境が違うだけで男も女もあるか
AIだって学習したもので判断するしかなかっただけだろ

7.  Posted by  名無しクオリティ   投稿日:2019年02月22日 05:29

※1
本当にそれ、この問題に対して異常に頭の悪い記事
まぁソース見たら朝日アエラだししゃーない

8.  Posted by  名無しクオリティ   投稿日:2019年02月22日 05:31

AIにも女は面倒くさい思われてんのな
コメ欄にも発狂してる面倒くさいの居て草

9.  Posted by  名無しクオリティ   投稿日:2019年02月22日 05:32

そりゃ会社は奴隷を求めてんだから月経周期もなく産休もとらず筋力と耐久力のある労働力が優先されるやろ
AIが割り切っただけ

10.  Posted by  名無し   投稿日:2019年02月22日 05:38

結果の平等のために女性に下駄をはかせるべきって主張する人は男性に下駄をはかせるべきとは主張しない
なぜならヤツらは女性は格下で下駄をはかせないと男性と同等にはなれないと思ってるから

まともなら医科大入試問題のような事案を問題視する

11.  Posted by  名無しクオリティ   投稿日:2019年02月22日 05:43

※9
生物学的に見ても女性よりも男性の方が労働に向いてるのは間違いないからな。
適材適所って言葉を知らない一部のアホが「ビョウドウガー」って叫んで無理矢理下駄履かせて数だけ揃えようとしているだけだもんな。

12.  Posted by  名無しクオリティ   投稿日:2019年02月22日 06:05

残当

13.  Posted by  名無しクオリティ   投稿日:2019年02月22日 06:23

画像認識の精度の問題まで好き嫌いで語ろうとする知能の低さにはドン引きする。

つうか今のAIなんてデータを縦軸横軸に並べて漸近線を引くのが早いだけの存在なのに、神のご宣託か叡智みたいに扱ってるガイジ多過ぎ。

14.  Posted by  名無しクオリティ   投稿日:2019年02月22日 06:30

力仕事や汚れ仕事もAIで女と男が平等になるように
仕分けしてくれや!!!

15.  Posted by  名無しクオリティ   投稿日:2019年02月22日 06:32

これ、差別じゃなくて、
単純に「合理性」を突き詰めたら
そりゃ力の強い男が優位とされるってだけじゃね?
むしろ正常な判断だと思うけど
これで男女比率1:1みたいな結果出たら
それはそれでおかしい

16.  Posted by  名無し   投稿日:2019年02月22日 06:43

>>13
この人AIガーAIガーっていつも言ってそうだよね

17.  Posted by  名無し   投稿日:2019年02月22日 07:00

※5に対してだが、100人中性別隠してテストした結果、女が数人って無理ないか?嘘過ぎやろ…こんな事言ってるから男は陰気くさいって言われるんや。
うちの企業テストじゃ女が圧倒的に合格点に達していたし、アイツら昼ご飯中でも勉強してるから

18.  Posted by  名無し   投稿日:2019年02月22日 07:18

自分達に都合悪いと「差別ガー」のテンプレかな?w

19.  Posted by  名無しクオリティ   投稿日:2019年02月22日 07:47

ついでにAIは有色人種も嫌いだぞ

20.  Posted by  名無し   投稿日:2019年02月22日 08:03

いつもデマまがいの記事書くAERAらしい偏見記事だこと

21.  Posted by  名無し   投稿日:2019年02月22日 08:07

AIが嫌いなのは女じゃなくてアホやろ
つまりはそういうことよ

22.  Posted by  名無し   投稿日:2019年02月22日 08:11

>>17
プロサッカーなら当たり前
プログラマーならありえるかも
営業ならさすがに0はない

何の採用かもわからんのに頭ごなしの否定はできへんやろ

23.  Posted by  名無し   投稿日:2019年02月22日 08:28

女は感情的に判断するからな
機械に感情わからんやろ

24.  Posted by  名無し   投稿日:2019年02月22日 09:30

これAIではなくDEEPラーニングだろうね。
男がほとんどのサンプルから取ったデータに一番関連性のあるデータを探すっていう。
なので女がどうってよりは、男のデータに近いプロフィール集めたら女が少なかったのは差別っていってないかな。

25.  Posted by  名無し   投稿日:2019年02月22日 11:17

>>24
データが偏ってたら結果も単純に偏る仕組みだよね
一つの反証から多数派が間違ってる可能性を探る検証アルゴリズムとかできたら面白いと思うけど

26.  Posted by  名無しクオリティ   投稿日:2019年02月22日 12:11

機械は正直だからな
普通にさ、陸上競技を性別無視してやったら
一部の競技以外男が上位に並ぶよね
AIは結果見ただけ
それをねじ曲げるのが異常

27.  Posted by  名無し   投稿日:2019年02月22日 13:27

>>26
馬鹿なら馬鹿な意見に共感してくれる戦法かw

28.  Posted by  名無しクオリティ   投稿日:2019年02月22日 22:12

何をどうしようとしても
結局ブライキング・ボスみたいのしか出来なかったりして

29.  Posted by  Tverdashovqib   投稿日:2021年09月30日 07:57

http://interpult.ru - Автор диссертаций вак
http://interpult.ru - Дипломный проект музей
http://interpult.ru - Образование срок егэ
http://interpult.ru - Рефераты красивые рисунки
http://interpult.ru - Сайт заочник дипломы

22fifty4e

コメントの投稿