https://cohabe.com/sisa/775973
아마존 AI 채용시스템 폐기결정 (有)
여성에게는 낮은 채용점수를 줘서
AI를 폐기하기로 했다네요...
미투 당한 AI
- 낸시랭 아버지가 교통사고로 돌아가셨다더니 [9]
- 스티브잡스 | 2018/10/11 17:37 | 6013
- 스브스 근황 (feat. 미투) [23]
- 레나그마 | 2018/10/11 17:35 | 4160
- 근육 소의 비밀.jpg [47]
- 심장이 Bounce | 2018/10/11 17:33 | 4154
- 저 골반의 달 좀 지워주세요. [9]
- zenniku | 2018/10/11 17:32 | 5445
- 아니 낸시랭 한달전만해도 남편이랑 잘놀더만 이혼한다니 [11]
- 스티브잡스 | 2018/10/11 17:31 | 4645
- 아마존 AI 채용시스템 폐기결정 (有) [22]
- 얌냠이 | 2018/10/11 17:31 | 3290
- 아침식사 [17]
- 헤이키 | 2018/10/11 17:29 | 2330
- 술꼬장 연기력 갑 [28]
- 부들부들™ | 2018/10/11 17:28 | 3874
- 후방] 헬스겔 전설의 몸 인증샷.jpg [23]
- 지옥의야동빌런 | 2018/10/11 17:27 | 4537
- 오늘도 r은 핫하군요! 아 [12]
- 토닥이™ | 2018/10/11 17:25 | 3019
- 모하비(1.5ton) G4렉스턴(3ton)의 견인능력 [0]
- 보배과학2호기 | 2018/10/11 17:25 | 3590
- Z6, Z7 아쉽네요 [9]
- 초록풍선™ | 2018/10/11 17:24 | 2055
- 팬만게 출신의 충격과 공포의 검정 고무신 만화.JPG [6]
- 안폭 | 2018/10/11 17:22 | 3274
- 궁예가 쫄딱 망해도 싼 이유.jpg [8]
- 고라파덕™ | 2018/10/11 17:22 | 4172
- 낸시랭 한국비하 레전드 [25]
- 담백하다 | 2018/10/11 17:22 | 5703
학습하니 알게된걸 왜....
부왘류
왜 낮은 점수가 나올까?
결과적으로 여자가 낮게 나와서 차별이됐네...ㄷㄷ
인공지능도 알았던거여 ㅋㅋ
입바른 소리만 하다간 팽당한다는걸 먼저 학습시켰어야...
AI에 주입한 빅데이터가 이미 여성차별이 깔린 데이터라는 뜻 ㄷㄷㄷ
AI도 아는 거를..... ㄷㄷㄷㄷㄷㄷ
AI도 생각이 있으니...
정작 저 문제를 제기한 건 아마존 내부의 머신러닝 전문가 5명이었고 그 이의를 받아들인것도 아마존인데 왜 여기 아조씨들이 비꼬고 있는 것임...?
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
이젠 AI도 수컷이라 하겠네 ㅋㅋㅋㅋㅋㅋ
이건 기사 전체를 봐야.. AI가 문제가 아니라, AI한테 학습시킨 자료가 문제였다는 겁니다.
기존의 채용정보를 학습시킨 결과 저렇게 나왔다는 거, 즉 기존의 채용이 여성을 차별하고 있었다는 게 증명된 셈이라는 겁니다. 그걸 AI는 정확히 학습한 거구요.
자료를 학습시킨게 아니라 시스템 작동 1년후 부터 AI가 스스로 여성을 배제하기 시작했다고 함
여성 차별이 아니라 여성이 직장에서 일에 대한 효율이 안좋다는게 증명된 셈인거죠
출산휴가 후 퇴직크리 나오는건 외국도 마찬가지니깐요
이는 AI가 축적된 데이터를 학습해 작동하는 방식이기 때문에 발생할 수 있는 오류였다. 이 시스템은 지난 10년간 회사에 제출된 이력서 패턴을 익혀 이를 바탕으로 지원자들을 심사했다. 그런데 AI는 남성 우위인 기술산업 업계의 현실을 그대로 학습한 것이다.
[출처: 서울신문에서 제공하는 기사입니다.] http://www.seoul.co.kr/news/newsView.php?id=20181011500090#csidx961...
이런 내용을 보고 위와 같이 생각했는데.. 실제 채용된 정보가 아니라 단지 제출된 이력서만 가지고 학습한 거라면 좀 얘기가 달라지겠네요. 음..
아마존 엔지니어들이 이 문제를 결국 해결하지 못했다고 하는걸보면.. 이러한 기술 문제에 있어서는 정치적으로 올바른 해결방법이 사실상 존재하지 않는다는 의미로 봐야겠죠.
역시 ai가 옳네요
솔직함 설정을 75퍼 정도로 설정을 했어야 ㅋㅋ
오류가 아니라 사실이라서 못고치는거 아닐까요.
오프셋을 안줘서 그렇죠 뭐
오프셋만 파팍 줬으면 50대 50으로 고용했겠죠
오프셋 값 설정 안하면... 허허
객관적으로 평가했을 뿐인데 AI가 뭔죄라고 ㅠㅠ
아마존의 한 관계자는 로이터에 "100장의 원서를 프로그램에 집어넣으면 순식간에 최상의 조건을 갖춘 5명의 서류를 토해낸다. 당신은 그 사람들을 채용하기만 하면 되는 것"이라고 말했다.
개발이 1년쯤 진행됐을 때 이 프로그램은 경력 10년 이상의 남성 지원자 서류만 샅샅이 뒤져내 고용해야 할 후보로 제시하기 시작했다.
.
.
.
.
그냥 AI 가 1년간 딥러닝을 해본 결과 "여자"라는 특성을 가진 자료는 100명중 5명 안에 들 인재가 전혀 없다고 판단 , 그냥 다 빼버리는거죠.
메갈년들 ㅂㄷㅂㄷ 할만하네요.