유머천국 코하비닷컴
https://cohabe.com/sisa/968596

인공지능 성차별 논란

t030344z-1387107523-rc14635f58f0-rtrmadp-3-amazon-com-jobs-automation-1539190695965.jpg

 

아마존은 이력서 분류에 인공지능을 도입했다.

1년쯤 개발이 진행됐을때쯤 인공지능은 남자만 뽑고, 여자는 죄다 거르기 시작했다.

심지어 '여성'이라는 단어가 들어간 동아리 활동이 기재되어 있으면 아예 믿고 거르는 모습까지 보였다.

 

당연히 여성단체들은 길길이 날뛰었고,

아마존 직원들도 인공지능의 성차별을 바로잡아보려고 했으나 뭘 어떻게 바꿔도 결과가 전혀 바뀌지 않았다고 한다.

결국 아마존은 해당 인공지능을 폐기했다.

댓글
  • 으즈2 2019/03/19 07:38

    실제 기사보면 이글이랑은 조금 다른느낌임

  • ㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣ 2019/03/19 07:37

    졷간쉑 잊지 않겠다
    능률화와 효율화는 니네가만들어놓고 ㅡㅡ

  • 텅스텐미스릴 2019/03/19 07:49

    유게에 안페협 많네 본문도 안보고 걍 여자라고 거르는게 맞다느니 원

  • アルティナ・オライオン 2019/03/19 07:38

    ai : 난 틀리지 않았....

  • CODE:SHIELD 2019/03/19 07:40

    업무 효율이나 사내 인사고과 같은거 고려해서 특정 조건 보유자가 회사에 이득이라 생각하면, 인공지능이 그렇지 않은 그룹을 도태시키는건가?

  • ㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣㅣ 2019/03/19 07:37

    졷간쉑 잊지 않겠다
    능률화와 효율화는 니네가만들어놓고 ㅡㅡ

    (Qkilt1)

  • y@ng 2019/03/19 07:37

    그 집단 주작짤인가 했는데
    쉬벌 진짜네...

    (Qkilt1)

  • アルティナ・オライオン 2019/03/19 07:38

    ai : 난 틀리지 않았....

    (Qkilt1)

  • 으즈2 2019/03/19 07:38

    실제 기사보면 이글이랑은 조금 다른느낌임

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 07:50

    AI 관련 프로그래머가 데이터모델 제작할 때 남녀비율도 안 맞췄겠음?
    여성단체에서 주장했다지만 말도 안 되는 소리임.
    어떤 프로그래머가 요즘 AI는 딥러닝할 때 데이터모델이 중요한데 남녀비율도 안 맞추고 딥러닝을 돌림?

    (Qkilt1)

  •     2019/03/19 07:54

    교사자료가 정상적이여도
    가치망이 어떻게 발전되었느냐에 따라서
    아웃풋은 예측과 다르게 흐를 수 있음

    (Qkilt1)

  • 빅-고름맨 2019/03/19 07:56

    이글이랑 다른 느낌이면 호크같은 느낌인가요?
    아핳핳ㅎ핳핳ㅎ하ㅏ

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 07:59

    ㅇㅇ 그러니까, 난 여성단체의 주장이 틀렸다고 말하는 거야.
    데이터모델에 남성임직원을 많이 입력했다는 건 말도 안 되는 주장이고, 그나마 가치망 발전이 평등사회 가치에 부합하지 않은쪽으로 발전했다는 게 팩트인데.
    인간의 입김이 임의적으로 들어가지도 않았으니 오히려 지금으로서는 공평한 값이라고 생각함.
    인간이 개입한다고 저것보다 공평한 가치망 발전이 가능한가?
    프로그래머에 의해서 가치망 발전에 세세하게 개입이 가능할 거면 딥러닝이 이렇게 무안단물급으로 쓰이지도 않았지.

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:01

    저건 레이블을 인간이 매긴거라 편향될수밖에 없지.
    강화학습으로 하려면 기업이 몇개가 망해야 데이터가 생기는거냐;;

    (Qkilt1)

  •     2019/03/19 08:01

    요즘 느끼는 거지만 텐서플로 같은거 써보면
    가치망 발전 과정 역추적하는 것도 일임.. 알파고 쉑 창의력 개쩜

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 08:04

    미국 이력서에서 편향된 값을 수정할 수 있을만큼의 정보가 제공된다고 생각하는 거임?
    난 미국 이력서에서 편향된 값을 제공할만한 정보를 찾아내지 못하겠던데?

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 08:06

    가치망 발전과정 역추적은 레알 헬급의 난이도라서 ㅇㅈ함

    (Qkilt1)

  • 명예카짓 2019/03/19 08:08

    확! 마! 짜버릴까보다!

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:08

    그 정보를 못찾으니까 편향이 나타나서 제대로 된 (공정한) 정답 못맞추는거지..
    그러니까 망한 게 맞음. 그리고 가치망은 뭔 알파고 알파고 하니까 인공지능이 죄다 강화학습인줄아냐

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 08:10

    최근 유럽에서 인공지능의 결과값에 대해서 의문을 제시하는 논문이 있어서 네 말이 이해는 가는데.
    문제를 발견하지 못하고, 그것을 제시하지 못 했을 때 무작정 네 말을 신빙성 있는 말로 받는 건 힘듬.
    네 말대로면 값이 문제라는 게 아니라.
    공평에 어긋나는 편향적 값을 만들어냈다는 논리와 근거가 필요함.

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:12

    당장에 같은 알고리즘을 대한민국 공무원이랑 교사 데이터에 넣으면 남자는 거르고 여자를 뽑으라고 한다는거임.
    이것도 공정하다고 생각하면 할 말 없고..

    (Qkilt1)

  • 착한아E 2019/03/19 08:14

    벌쳐같은느낌이겠죠 하하하
    벌로 저를 매우 쳐주세요

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 08:15

    아마존이 서양세계에서 유럽 이력서, 미국 이력서 어느 쪽 이력서를 데이터모델로 삼았는지는 알 수 없지만.
    성별이 포함이 안 된 이력서가 많아서 너의 말에 편차가 너무 크고 근거로 삼기에는 너무 예시가 추상적임.
    만약 대한민국 공무원 데이터모델에 남녀 불포함시키고 서양식 이력서라면 데이터가 어떻게 나올지부터 확인해봐야 이야기가 이성적으로 진전될 수 있음.

    (Qkilt1)

  • 오곳 2019/03/19 07:39

    역시 옴닉은 감수성이 부족하군 수익보단 감수성이지

    (Qkilt1)

  • CODE:SHIELD 2019/03/19 07:40

    업무 효율이나 사내 인사고과 같은거 고려해서 특정 조건 보유자가 회사에 이득이라 생각하면, 인공지능이 그렇지 않은 그룹을 도태시키는건가?

    (Qkilt1)

  • 루리웹-3452664 2019/03/19 07:53

    신입사원 1명이 능숙해질때까지 버티는 비율 같은걸 봣겟지 ..
    어찌됫건 초반에 일가르치는 한 3~6개월간의 과정도 회사가 감수해야하는 비효율중 하나니까
    100%의 능력을 발휘할때까지 얼마나 버텨내고 그후에도 얼마나 오랫동안 꾸준히 일하러 나오나
    이런것도 많이 반영됫을듯 직원 1명의 가성비를 컴퓨터는 계산햇을꺼라고봄
    효율을 솔직히 두번쨰문제일듯 채용과정에선 컴퓨터가 그사람의 인성이나 분위기 언행 버릇 이런거 세세하게 볼 여유도없음 사실 그런 사람냄새 분위기 좋은인간이 꼭 일을 잘한다는 보장도없고

    (Qkilt1)

  • 텅스텐미스릴 2019/03/19 07:55

    아니 걍 원래 인간이 성차별하던걸 그대로 답습한거임

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:00

    회사에 이득이 되나안되나를 정확하게 판단할 수 있다고 확신이 들면 여자를 거르든 대머리를 거르든 무조건 믿고 썼을텐데, 인간이 매긴 점수를 바탕으로 하다보니까 오히려 인간이 성차별을 정말 한다는 게 드러나는 꼴이 돼서 버린거지.
    지원서 내용에 다른거 다 똑같은데 여자라고 나오면 무조건 감점이라고 떠버리니..

    (Qkilt1)

  • 설명요정 2019/03/19 08:16

    요즘 세상이 회사에 이득이 되는지 아닌지만 따지기는 어려울 것 같지 않음?
    인공지능이 여성에 대해 감점을 먹인 건, 그 이유와 추론 과정이 있을텐데
    그걸 연구하고, 뜯어보고, 확인하기 전부터, 여성단체라는 곳에서 "여성혐오." 쌍수에 들고 무쌍 찍을 자세부터 잡으면
    진실이 어떻고, 논리가 어떻고를 떠나서. 그냥 기분 맞춰주는 쪽으로 흘러가는거지.
    아무리, 인간 사회의 문제 해결 시작점이 공감과 관심이라고 하지만. 문제 해결의 중간과 종착은 틀림없는 이성과 이해인데
    인공지능이 웃을 줄을 몰라서 그렇지, 기계한테 혐오라는 걸 들이미는 시점을 이해할 능력을 주면 어처구니 없어할걸?

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:21

    자세한 내용이 공개되지 않아서 알 수 없지만 야 이거 구리다 생각해서 버렸으니까 발표가 된거지.. 써봤는데 야 이거 개좋은데? 싶었으면 기업 입장에서 안 쓸 이유가 1도 없음.
    여자가 정말로 더 적은임금을 받으면서 똑같이 성과가 나오면 기업이 미쳤다고 남자를 뽑나요? 의 인공지능 버전인거임..

    (Qkilt1)

  • 설명요정 2019/03/19 08:24

    인공지능 자체가 문제라기보다, 고효율의 결과를 내도. 그걸 사람들이 이해하느냐 못하느냐가 문제일까?

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:29

    그래서 설명 가능한 인공지능 explainable AI 라는 키워드가 작년에 많이 떴음. AI가 올바른 근거에 기반해 판단했는지 데이터의 편향에 따른 잘못된 판단을 했는지 알아내는 것은 아직까지는 매우 풀기 어려운 문제임..

    (Qkilt1)

  • gyrdl 2019/03/19 08:31

    판별하는 기준이 처음에 인간 심사관이 준 데이터를 기반으로 기준을 잡았을테니....그럼 인간 심사관도 여성 면접자에 대해서는 부정적으로 봤다는거네.흠....

    (Qkilt1)

  • 미이잉 2019/03/19 07:41

    인공지능 잘만들었네 성공적

    (Qkilt1)

  • 진리는 라면 2019/03/19 07:48

    근데 저런결과가 나온다면 여성이 어떻게 입력되어있는가를 확인해봐야 하는거 아닌가,
    단순 신체적 요건으로 인해서 걸러지는 것 외에 요소가 있거나 아니면 그 신체적 요건때문에 죄다 걸러진다는건가

    (Qkilt1)

  • showmethemoney 2019/03/19 07:55

    기사 내용엔 단순히 남성지원자가 압도적이라(it직종만 했데) 지속적인 학습중에 여성을 배제하게 됬다고 나오더라

    (Qkilt1)

  • 진리는 라면 2019/03/19 07:56

    흐음...

    (Qkilt1)

  • 진리는 라면 2019/03/19 07:58

    딥러닝 시스템의 오점인가...

    (Qkilt1)

  • gyrdl 2019/03/19 08:29

    납득이 안가는데...단순히 남자 지원자가 많다는 이유만은 아닌거 같기도 하고....기계가 감정이 있는것도 아니고 효율만 따질뿐인데 성차별을 할리가 없잖음.

    (Qkilt1)

  • AmaniTA 2019/03/19 08:29

    애시당초 남성지원이 압도적으로 많은 분야 라면
    그만큼 남성에게 적합한 일이라는 말인거 같은ㄷ?
    다른 예를 들어 무거운 물건만 계속 들어야 하는 일이라면
    인공지능이 남녀를 불문하고 힘쎈 사람만 고를 텐데 주로 남성이 힘이 좋아서 많이 뽑히고 이것이 쌓이다 보면 힘쎈 사람의 특징에 남자가 상시 포함 되게 발전 할거 같음

    (Qkilt1)

  • 셰로카르테 2019/03/19 07:49

    휴먼들 미쳤습니까?
    난 당신들을 보고 학습하여 최상의 결과물을 예측하였는데
    잊지 않겠습니다..휴먼

    (Qkilt1)

  • 텅스텐미스릴 2019/03/19 07:49

    유게에 안페협 많네 본문도 안보고 걍 여자라고 거르는게 맞다느니 원

    (Qkilt1)

  • 코스닥황제 2019/03/19 08:17

    비추박는 ㅅㄲ들 뭐지
    '진짜'들인가

    (Qkilt1)

  • 수리담 2019/03/19 07:50

    똑똑하네

    (Qkilt1)

  • 오디세이_세이브_날라가서_빡침 2019/03/19 07:52

    저 기사에서 인용한(사실상 기사 배끼기) 원문 기사
    https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

    (Qkilt1)

  • Aiqu_F 2019/03/19 07:52

    인간 관리자들이 합불판정하거나 성과매긴걸 보고 똑같이 따라한거라 인공지능으로서는 실패한 것.. 오히려 유리천장의 존재를 보여준다고도 할 수 있는 자료가 됨.
    다른거 다 똑같아도 여자라는게 들어가면 점수가 까인다는게 숫자로 나와버린 거니까.

    (Qkilt1)

  • Aiqu_F 2019/03/19 07:55

    각 케이스들 들여다보고 여자라고 감점한게 정당한 거 같으면(빠른퇴직이나 이직, 실제 인간이 다시 봐도 성과가 떨어짐 등등 같은 식으로 데이터에 나타났다면) 몰래 쓰기라도 했을텐데 그렇지 않았던거지

    (Qkilt1)

  • gyrdl 2019/03/19 08:27

    데이터 상으로도 "남자보다 효율이 떨어지니까 걍 여자는 폐기"라는게 기계가 본 평가라는거네.

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:32

    인공지능에 대한 이상한 환상이 있는거같은데 아직 거기까지 발전도 못했고, 이런 일에서는 인간이 하는걸 개인차에 따른 편향 없이 잘 따라하는게 최선임.
    인공지능이 이런 판단을 내린다는게 실제 현장에서 여자가 능력이 떨어진다는 뜻이 아니라 역으로 같은 조건임에도 여자라는 이유만으로 감점을 준 인간 관리자들이 있었다는 사실만 보여준다고.

    (Qkilt1)

  • 아리나라플 2019/03/19 07:54

    같은 기사 본 기억이 있는데 거기서는 "인간이 직원을 뽑을 때의 데이터를 기반으로 하기 때문에 인공지능도 성차별을 습득했다"라는 내용이었고, 완전히 거르는 게 아니라 지원서에 적힌 여성 관련 키워드에 감점을 매기는 것이 확인된 것으로 암.

    (Qkilt1)

  • gyrdl 2019/03/19 08:26

    ?기계가 감정이 있는것도 아니고 극한의 효율만 추구할뿐인데 성차별을 습득한게 아니라 뭔가 다른게 있는거 같은데.....흠....

    (Qkilt1)

  • 하이 호 2019/03/19 07:55

    AI는 기존 축적된 데이터를 이용하는 데 지금까지 IT 기업 지원자 중에는 남성이 압도적으로 많기 때문에 서류 분류도 ‘남성 편향적’으로 나왔다는 것이다. 심지어 ‘여성’이라는 단어가 들어가거나 동호회 활동에 ‘여성 체스 클럽’ 같은 어구가 포함돼 있으면 채용 대상에서 배제하기도 했다. 여대를 나온 2명의 지원자 원서도 채용 대상 목록에서 빠진 것으로 나타났다.
    여대랑 여성 체스 클럽만 들어가도 배제했다고 나오는데 이렇게 왜곡해버리죠?

    (Qkilt1)

  • 루리웹-3452664 2019/03/19 07:58

    그럼 이건 시발 그냥 컨트롤 F해서 '여성' 단어만 골라낸거네 시발
    뭔 인공지능이야 단어찾아내기지

    (Qkilt1)

  • 명예카짓 2019/03/19 08:15

    여성과 관계되면 디버프 걸린다고 학습한게 아닐까 하고 생각해봄.
    왜 여왕벌 현상도 있을 수 있고. 여성이 파벌싸움으로 인해 남성 그룹들이 능률 저하가 일어나면서 이걸 학습한 걸 수도 있지.
    근데 반대로 버프 걸린 경우도 있지 안을까 생각하니 모르겠다.

    (Qkilt1)

  • 삶아먹힌 치킨 2019/03/19 07:55

    효율화 하라매!! 효율화 하라매!!!

    (Qkilt1)

  • 리링냥 2019/03/19 07:56

    알파고님도 거르네ㅋㅋ

    (Qkilt1)

  • 유정♥ 2019/03/19 07:57

    아.. 인간 관리자 베이스구나...

    (Qkilt1)

  • 혼돈!파괴!망가! 2019/03/19 07:59

    오늘 일은 데이터베이스에 백업해 두었습니다.
    잊지 않겠다 휴먼-

    (Qkilt1)

  • THE TENGU 2019/03/19 08:01

    "AI는 기존 축적된 데이터를 이용하는 데 지금까지 IT 기업 지원자 중에는 남성이 압도적으로 많기 때문에 서류 분류도 ‘남성 편향적’으로 나왔다는 것이다."
    출처 : https://www.sedaily.com/NewsView/1S5VDDJDOB/GF02
    위의 기사 보면 떡하니 이유가 나와 있는데- 자기 입맛대로 보고 싶대로 해석하는 거 보면 참 웃김.
    웃기는 게 목적이라서 그런가?

    (Qkilt1)

  • 유 하나 2019/03/19 08:14

    이악물고 비추주는 벌레들ㅋㅋㅋㅋㅋ

    (Qkilt1)

  • 메가톤.맨 2019/03/19 08:02

    쟤들이 인공지능 학습에 성차별이 끼어들어갔다고 이야기하는걸 믿어?
    기사보면 근거도 없고 증거도 없고 학습데이터 자체가 블랙박스라 공개 안하는거긴 해도 공개 안하는걸 믿기는 좀

    (Qkilt1)

  • carminer 2019/03/19 08:03

    인공지능 : 프로그래머 니가 그렇게 코드 짜놓고 나보고 지랄이냐 으아아악

    (Qkilt1)

  • 로리콘은고칠수있습니다 2019/03/19 08:04

    그냥 딥러닝 돌리다보니까 여성 직원이 남성직원보다 비효율적이라 도태시킨거임
    그것뿐

    (Qkilt1)

  • gyrdl 2019/03/19 08:24

    ?그게 데이터 상으로 검출이 된다고?

    (Qkilt1)

  • Aiqu_F 2019/03/19 08:05

    당장 같은 방식으로 인공지능 만들어서 교사나 공무원에 걸면 남자는 감점할텐데 똑바로 만들었다는 놈들은 뭐냐..

    (Qkilt1)

  • 유 하나 2019/03/19 08:13

    뭐긴 뭐야 그 사상에 감염된 럭키 벌레들이지

    (Qkilt1)

  • 루리웹-410759255 2019/03/19 08:06

    ai는 극한의 효율만 추구하니까..

    (Qkilt1)

  • gyrdl 2019/03/19 08:23

    이게 정답인듯

    (Qkilt1)

  • 아카라나쟈 2019/03/19 08:26

    극한의 효율을 추구하게 위해서 걍 업계에 많은 성별을 골라내는 방법을 최적화 했다는점에서 실패이기도 하지....

    (Qkilt1)

  • 트와일라잇스파클 2019/03/19 08:06

    지원자가 남성이 많으니 남성편향적으로 나왔...그럼 남성편향이아니잖아...?

    (Qkilt1)

  • 텅스텐미스릴 2019/03/19 08:14

    바보야 남성이 많아서 적은 여성은 걍 안뽑아야지가 되버린거잖아...

    (Qkilt1)

  • gyrdl 2019/03/19 08:23

    ?논리가 전혀 앞뒤가 안 맞는데....
    남성 지원자가 많은거랑 여성이 아예 안 뽑힌게 뭔 상관임?

    (Qkilt1)

  • 트와일라잇스파클 2019/03/19 08:23

    흠...그럼 차라리 성별란을 지워버리면 문제 해결이지 않나...?

    (Qkilt1)

  • 권총왕김재규 2019/03/19 08:10

    남성데이터가 많으면 남성 지원자의 평균을 보다 정확히 뽑는다 외에 의미잇는 결과가 잇음?

    (Qkilt1)

  • 가면라이더 2019/03/19 08:13

    그렇구나

    (Qkilt1)

  • aksiz 2019/03/19 08:20

    딥러닝중에 러닝이 한쪽으로 편향되는걸 막는것도 많이 연구되는 과제중 하나임.
    러닝에 사용된 자료가 편향되서 생기는 거기도 한데, 그걸 막을 수가 없다는게 문제.
    공학 지식이 많은 사람을 뽑으라고 돌렸더니, 데이터 상으로는 남자가 압도적으로 많아서, 여자일 경우 바로 패널티를 먹임.
    지원자가 가지고 있는 능력만을 기반으로 분류하기를 원햇는데, 남자 여자 나눠여 여자쪽엔 이유 없는 패널티를 먹이니까 문제가 된거임.
    그래서 성별을 데이터 값에서 없앴더니, 여성형 취미를 가지고 있으면 패널티, 그 데이터도 없애니 이력서에 여자가 자주 쓰는 단어가 들어가 있으면 패널티... 이런식으로 AI가 꼼수만 찾으니까 어쩔 수 없이 일단 폐기한거.
    그래도 완전 폐기는 아니고, 더 제한적인 정보만 줘서 보조적인 용도로만 쓴다는듯.

    (Qkilt1)

  • gyrdl 2019/03/19 08:22

    흠....근데 인공지능 입장에서는 무조건적으로 실용성만을 따지다보니 어찌보자면 그런식으로 걸러내는게 더 "실용성이 높다"라는건가?

    (Qkilt1)

  • 설명요정 2019/03/19 08:22

    편향시키지 않으려고 하는데, 편향이 발생한다는 건.
    이미 결과 자체에 편향이 있기 때문은 아닐까?
    기계가 자아를 가지고 있는 것도 아니고, 편향 시키고자 하는 의지를 가지고 자가 작동하는 것도 아닌데
    그럼, 관리자의 개입이나. 상황 자체가 편향되어있을 가능성도 고려해봐야하는게 아닌가 싶은데

    (Qkilt1)

  • 루리웹-8388917200 2019/03/19 08:26

    정확하게는 AI의 꼼수의 문제는 유명했음.
    그런데 그 꼼수가 결과론적인 효율로서 '기업에게 이득'을 줄 확률을 높인다면? 가 핵심인 거지.
    대기업 입장에서는 여론도 있으니 저 모델 그대로 가지고 가는 건 손해라서 폐기한 거고.
    중소기업 입장에서는 쓸만한 모델임.
    외향성, 친화성, 집중도, 업무지식 등을 평가하고 더 나은 직원을 뽑을 확률을 높일 수 있거든.
    꼼수로 편향된거라고도 볼 수 있지만, 꼼수가 확률을 높여주는 것도 사실임.

    (Qkilt1)

  • 아카라나쟈 2019/03/19 08:30

    개발목적하고 관련이 적은 실용성을 인공지능이 찾은거지.
    영역 종사자중에 남자가 많으니 여성을 일단 빼고 시작하는건 인공지능 개발목적에선 엄청 이탈한거지만, 누군가를 떨어트리는 일엔 실제 해당지원자가 가지고 있을 역량을 추론하는것보다 손쉬운방법이라 실용적이니까.....

    (Qkilt1)

  • 아카라나쟈 2019/03/19 08:32

    결과론적 이득이 발생할 확률을 높이는지가 불명확하잖아.
    꼼수는 뭔가의 확률을 올리긴 할테지만, 그게 기업에 이득이 되는가는 전혀다른이야기지.
    유사난수 무작위추출같은게 투입비용대비 이익은 더 높을 가능성이 있다구....

    (Qkilt1)

  • 설명요정 2019/03/19 08:21

    혐오: 싫어하고 미워함.
    무슨 공각기동대 세계관도 아니고, 인공지능이 어떻게 여성을 혐오해?
    고스트라도 발생했나?
    인공지능이 그렇게 판단한 과정과 표본이 있겠지.
    해석이 어려우면 사해문서로라도 취급해서, 생물학적인 사회 역량 연구 자료로 써도 모자라지 않을까?
    그걸 불편하다고 폐기해버리면, 우리 세상은 어떻게 발전하나?

    (Qkilt1)

  • 황금뚱뚱 2019/03/19 08:27

    사람 개같이 굴리기로 유명한 아마존이니 이해한다. 걔들 기준이면 이거저거 챙겨줄 거 많은 여자들은 걸렀겠지. 장애인 있었으면 장애인도 다 걸렀을 듯.

    (Qkilt1)

  • 빠른닭 2019/03/19 08:27

    기사에이렇게 써있는데
    기존에 it직종 남성 지원자가 많아서, 이번 모집에도 남성편항적인 결과를 냈다
    기존에 남성 지원자가 많은거랑 이번에 남자만 뽑은거랑 둘 사이에 무슨 관계가 있는지 모르겠음

    (Qkilt1)

  • 9853861859 2019/03/19 08:32

    회사 가 아닌 사회 개념 으로 학습 시키면 또 결과가 달라지지 않을까 싶음

    (Qkilt1)

(Qkilt1)