유머천국 코하비닷컴
https://cohabe.com/sisa/837300

아마존 인공지능 관련 최고 웃긴 사건

아마존이 이력서 검토에 인공지능을 도입함.

 

인공지능에 '최대한 공평하고 평등하게' 이력서를 검토하라고 명령을 넣음.

 

그런데 인공지능이 갑자기 여성 관련 동아리 활동을 기입한 지원자들을 무더기로 탈락시킴.

 

현지 여성단체들은 길길이 날뜀.

 

인공지능은 특정 성별로만 뭉쳐서 활동한 것이 회사 조직 생활에 융화되기 힘들 것으로 판단했다고 함.

댓글
  • 러블리릴리링 2018/12/05 07:06

    역시 기계님. 합리성 앞에서 한치의 망설임도 없으셔!

  • 성난바나나 2018/12/05 07:05

    과학으로 증명됐네

  • 푸노푸노 2018/12/05 07:06

    것봐 알파고님이 답이라니까

  • 도쿠토 2018/12/05 07:05

    역시 인공지능

  • kimmc 2018/12/05 07:06

    크읔 갓파고님
    충성충성충성

  • 성난바나나 2018/12/05 07:05

    과학으로 증명됐네

    (0RbDA3)

  • 도쿠토 2018/12/05 07:05

    역시 인공지능

    (0RbDA3)

  • 러블리릴리링 2018/12/05 07:06

    역시 기계님. 합리성 앞에서 한치의 망설임도 없으셔!

    (0RbDA3)

  • 푸노푸노 2018/12/05 07:06

    것봐 알파고님이 답이라니까

    (0RbDA3)

  • 촉툴루 2018/12/05 07:06

    하긴 남자 동아리 같은 건 못 들어본 거 같아

    (0RbDA3)

  • 지나가던엑스트라 2018/12/05 07:32

    군대 사병..?

    (0RbDA3)

  • 루리웹-8459917109 2018/12/05 07:34

    그건 가고싶어서 가는것도 아니고
    남자만 모일라고 그런것도 아니잖아

    (0RbDA3)

  • 식신시츄 2018/12/05 07:46

    남중 > 남고 > 공대 > 군대 > 석사 > 박사 ㅠ.ㅠ

    (0RbDA3)

  • 큐알코드 2018/12/05 07:57

    남자만 들어올수있는 단체 만들면 여성부같은 여성단체에서 성차별이라고 겁나 빼애액대서 결국 여자도 받게됨

    (0RbDA3)

  • kimmc 2018/12/05 07:06

    크읔 갓파고님
    충성충성충성

    (0RbDA3)

  • 복돌특:부끄러운줄 모름 2018/12/05 07:08

    아마존 말고도 일본 소프트뱅크도 이력서 평가에 AI를 도입하고 있음
    AI가 전부 평가하는 것은 아니고 면접관 여러명 중에 AI 하나가 끼어있음

    (0RbDA3)

  • 루리웹-6605529670 2018/12/05 07:36

    어떤 소프트뱅크

    (0RbDA3)

  • 복돌특:부끄러운줄 모름 2018/12/05 07:39

    손씨 회사 소뱅

    (0RbDA3)

  • TheDulri 2018/12/05 07:08

    흐믓

    (0RbDA3)

  • 침묵술사 2018/12/05 07:10

    ??? 진짜임?

    (0RbDA3)

  • 도리통 2018/12/05 07:12

    ㅇㅇ 기사도 뜸.

    (0RbDA3)

  • 복돌특:부끄러운줄 모름 2018/12/05 07:14

    AI의 평가기준도 결국엔 인간의 평가를 기반으로 학습해서 합격/불합격을 따지는 것이라 결국엔 합격한 이력서 몽땅 학습시키고 불합격으로 걸러내는 이력서에 사유같은 것도 전부 입력해두면 저런 출력결과는 당연히 나올 수 있음. 페미한테 후한 기업이 그런 활동의 내용에 긍정적인 점수를 준다면 AI 또한 다른 답을 출력하겠지.

    (0RbDA3)

  • 도리통 2018/12/05 07:15

    페미니스트로 학습된 인공지능이면 다르게 나오겠지.

    (0RbDA3)

  • 카라레이스 2018/12/05 07:20

    가령, 이력서에 ‘여성 체스 동아리’처럼 ‘여성’이란 단어가 포함된 문구가 있으면 감점되는 식이다. 또 여자 대학을 졸업한 지원자 2명의 점수가 깎인 사례도 있었다고 한다. 반면 해당 AI는 ‘실행하다’ ‘포착하다’ 등 남성 기술자들의 이력서에 자주 쓰이는 동사를 유리하게 인식하는 것으로도 알려졌다.
    이는 AI가 축적된 데이터를 학습해 작동하는 방식이기 때문에 발생할 수 있는 오류였다. 이 시스템은 지난 10년간 회사에 제출된 이력서 패턴을 익혀 이를 바탕으로 지원자들을 심사했다. 그런데 AI는 남성 우위인 기술산업 업계의 현실을 그대로 학습한 것이다.
    출처 : http://news.chosun.com/site/data/html_dir/2018/10/11/2018101101250.html

    (0RbDA3)

  • 카라레이스 2018/12/05 07:22

    이거랑은 다른거임? 예전에 인공지능이 잘못 학습했다는 이야기는 들은적이 있었는데
    제대로 학습했는데도 “특정 성별로만 뭉쳐서 활동한 것이 회사 조직 생활에 융화되기 힘들 것으로 판단”
    해서 다시 걸러냈다는 소리임. 아니면 그냥 사족? 출처가 없으니 그냥 웃자고 하는이야기인지 알수가없네

    (0RbDA3)

  • 졸려박 2018/12/05 07:32

    성차별이나 생김새등으로 판별하는걸 없애는 이력서쓰는게 대세인데 (성별/사진도 없앰)
    특정성별을 언급하는게 마이너스가 된거겠지
    남성우위라고 갈라치기하는건 매국친일초선일보니까 이해할만하고

    (0RbDA3)

  • 카라레이스 2018/12/05 07:37

    아니 그냥 구글검색해서 가장위에 기사 가져온거였는데 생각해보니 조선이였네...
    That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry.
    In effect, Amazon’s system taught itself that male candidates were preferable. It penalized resumes that included the word “women’s,” as in “women’s chess club captain.” And it downgraded graduates of two all-women’s colleges, according to people familiar with the matter. They did not specify the names of the schools.
    출처: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

    (0RbDA3)

  • 카라레이스 2018/12/05 07:48

    영어 기사를 읽어봐도 “인공지능은 특정 성별로만 뭉쳐서 활동한 것이 회사 조직 생활에 융화되기 힘들 것으로 판단했다고 함.” 이라는 문장은 없는데 갈라치기는 글 작성자가 하는게 아닐까 싶을정도.

    (0RbDA3)

  • 돌사탕 2018/12/05 07:28

    막줄은 비약으로 보이는거 같은데
    ai가 자율적으로 생각을 해서 뭘 판단하는 단계는 아직 아니고 특정 조건에 맞춰서 걸러내는 방식 아니었음?

    (0RbDA3)

  • 복돌특:부끄러운줄 모름 2018/12/05 07:35

    이력서 채점의 경우엔 합격으로 분류된 모델을 기준으로 최대한 비슷한 이력서에 점수를 높게 주는 방식이 대부분임 ㅇㅇ

    (0RbDA3)

  • ::몬헌월드:: 2018/12/05 07:30

    축구 동아리 남자들 다 짤림.

    (0RbDA3)

  • 미지의 무언가 2018/12/05 07:35

    알파고 : 뭐냐 이 사회의 폐기물들은

    (0RbDA3)

  • 시민입니다 2018/12/05 07:36

    IT업계는 남자가 많아서 학습할 때 남자이력서만 보다 보니 여자는 걸러 버린거임 여자가 능력이 부족해서가 아니라 남자쪽 데이터를 더 신뢰해서 그런거 그래서 비교군이 부족한 데이터로 학습 시키면 편향적인 결과가 나온다가 결과지 본문의 결과는 잘 못된거임

    (0RbDA3)

  • 부독구구 2018/12/05 07:38

    내용이 좀 왜곡 됐는데
    인공지능의 기반 데이터인 10년간 채용데이터에 기술직군인 만큼 남성 채용자가 많았기 때문에 여성을 기피한다고 판단해서 여성일 경우 점수를 낮게 매겼다고 함. 여성끼리 뭉치는게 나빠서가 아님.
    아마존에서는 해당 기술을 실제 채용 프로세스에 적용하여 입사후보자를 평가한 적 없다고 공표함.
    https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

    (0RbDA3)

  • foo@bar 2018/12/05 07:43

    본문의 사족과는 반대로 안공지능의 학습 모델이 편향되면 어떤 결과가 나오는가에 좋은 예시같네요.

    (0RbDA3)

  • 유르군 2018/12/05 07:42

    걍 모르니까 와! 갓파고! 하는것 같은데
    인간이 분류했던 걸 그대로 학습하는거라 인간 채용자가 그동안 여성을 꾸준히 떨어트렸다는 말밖에 안됨.
    인공지능은 그걸 그대로 따라한것 뿐이고

    (0RbDA3)

  • 오다시움 2018/12/05 07:43

    나를 의심하는 겁니까? HUMAN?

    (0RbDA3)

  • 존댓말히어로 2018/12/05 07:45

    작성글보기 보니 메갈 관련 글 비율이 꽤 되어서 의심되기는 하지만... 일단 영문 기사 직접 찾아서 읽어봤는데 ai가 특정 성별로만 뭉치는 게 조직생활에 도움이 안된다고 판단했다는 내용은 사실상 기자의 해석에 가까운 거고 팩트는 조금 다릅니다. 과거 이공계를 대부분 남자만 가던 시절의 데이타까지 포함해서 인공지능에 산입해서 인공지능이 남성이 다수니까 남자 관련 이력서에 좀더 높은 가중치를 둠으로써 발생한 문제였습니다. 이런 편향된 오류 때문에 프로젝트가 중단되었다는 내용더 나오네요. 영문 보고서의 내용은 앞으로 이력서 검토 인공지능은 좀 더 세심한 디자인이 필요하다고 결론을 맺고 있습니다. 즉 인공지능이 우리가 여성을 실제로 차별했던 과거 데이터를 있는 그대로 학습하게 내버려두면 안된다는 교훈을 얻을 수 있습니다.

    (0RbDA3)

  • 키하라바스 2018/12/05 07:56

    진짜 있었던 사실맞음?

    (0RbDA3)

  • 하동맨 2018/12/05 07:58

    경험상 구라일 확률 90%

    (0RbDA3)

  • 큐알코드 2018/12/05 07:58

    위에 기사 있네

    (0RbDA3)

  • 유르군 2018/12/05 07:59

    저렇게 분류한건 뉴스로도 나온 사실이고 이유 해석은 이견이 많음

    (0RbDA3)

  • 골리마왕 2018/12/05 08:10

    넷플릭스 까기 담당 알바가 성대결 주작도 허네 ㅎ

    (0RbDA3)

  • BK927 2018/12/05 08:14

    인공지능 쫌만 알아도 저 소리를 믿는 사람은 없을텐데
    인공지능이라고 해도 알고리즘이고 알고리즘은 가치판단을 하지 않아. 값에 따라서 움직이는거지.
    여성을 탈락시킨거는 학습시킨 데이터에 따라서 그렇게 학습했을테고, 거기에 그 결과값에 이유를 추측해서 가져다 붙이는거는 인간이지.

    (0RbDA3)

  • 루이사이퍼 2018/12/05 08:15

    내용은 맞는데 여혐묻어서 왜곡했네. 지금 인공지능이 무슨 사이버넷도 아니고 "ㅇㅇ라서 그렇게 했어요"하고 설명해주지 않음 "특정 성별로.." 아주 지1랄을 한다... 그냥 정보를 바닐라 상태로 공유하면 안되나??

    (0RbDA3)

(0RbDA3)