[이주의한순간] “인간에게서 지원자들을 차별하는 법을 배운 컴퓨터는 인간들보다 한 술 더 떠서 기가 막힐 만큼 효율적으로 차별적인 심사를 했다”
- 캐시 오닐, 『대량살상수학무기』

의 본문을 찍은 사진입니다. 내용은 본문 참고.

“이 책을 세상의 모든 약자들에게 헌정합니다”

“인간에게서 지원자들을 차별하는 법을 배운 컴퓨터는 인간들보다 한 술 더 떠서 기가 막힐 만큼 효율적으로 차별적인 심사를 했다” (p.199)

캐시 오닐, 『대량살상수학무기』 첫 장을 펼치는 순간, “이 책을 세상의 모든 약자들에게 헌정합니다.”라는 글귀가 눈에 들어온다. 왜일까? 왜 약자를 위해 헌정한다고 했을까… 책을 읽어 내려가면서 비로소 고개를 끄덕이게 되었다. 캐시오닐은 수학자이며 데이터과학자로 빅데이터와 알고리즘 권력을 교육, 노동, 보험, 정치 등 다양한 사례를 통하여 어떻게 불평등을 조장하고 민주주의를 위협하는지를 보여준다. 빅데이터의 토대가 되는 알고리즘 모형들이 인간의 편향성, 실수도 코드화하고 있다고 말한다. 인간의 편견과 오만을 코드화한 프로그램은 차별을 정당화하고 민주주의를 위협한다는 것이다. 저자는 이런 프로그램들이 ‘대량살상무기(Weapons of Mass Destruction)’만큼 위험하며 그래서 ‘대량살상수학무기(Weapons of Math Destruction)’ 라고 붙이고, 줄여서 WMD라고 한다.

문득, 해외뿐만 아니라 국내에서도 확산되고 있는 ‘AI 채용’ 기사가 떠올랐다. 관련하여 기사를 찾아보니, AI 채용은 기업에서는 효율성과 공정성을 내세운다. 일반적으로 AI는 1차적으로 수많은 이력서를 단시간(자소서3초, 일만장 8시간)에 해당 회사에 맞는 적합자와 비적합자를 걸러내고, 2차적으로 AI 면접으로 얼굴인식을 하고 로봇이 질문하면 답을 하는데, 로봇은 지원자의 표정과 감정, 얼굴근육, 사용하는 단어 등 모두 분석해 신뢰도까지 측정한다고 한다. 최종적으로는 AI, 인사담당자/임원이 면접을 실시하는 것이다. 국내에서는 SK브로드밴드, 롯데, 국민은행, 공기업(한국자산관리공사 등)에서도 AI 채용을 실시하고 있다.

대표적으로 편향성과 공정성 논란이 되었던 아마존의 사례를 살펴보면, 아마존은 2014년 AI 채용을 도입하였는데 AI 채용 결과 대부분 남성이었고, 이력서에 ‘여성’이란 단어가 포함되면 감점이 되었다. 반면 남성 지원자의 이력서에 자주 쓰는 용어를 유리하게 인식하여 성차별 논란이 일어나자 아마존은 공정성 실패를 인정하고 2018년 10월 AI 채용 시스템을 폐기하였다. 알고리즘이 남성을 선호하였고, 편향적으로 학습한 결과인 것이다.

또한, 최근(2019.04)에 아마존 물류센터에서 300여명이 해고를 당해 논란이 있었는데, AI는 직원의 쉬는 시간을 추적해 업무이탈 시간을 측정했고 자동으로 경고를 보내 이것을 근거로 300여명이 해고를 당했다고 한다. 시간과 비용의 절감, 효율성을 내세우며 인공지능은 지능화되고 있고 빅데이터와 알고리즘은 캐시 오닐의 주장처럼 편향되고 권력화되어 ‘대량살상수학무기’가 되고 있다.

속수무책으로 수용할 수밖에 없는 현실, 머리로는 “불편해도 괜찮아” 외치면서 나의 손과 발과 가슴은 편리함을 추구하고 내면화시키고 있다. 기술발전의 거대한 흐름 속에서 나와 우리, 인권단체를 비롯한 시민사회단체는 무엇을 할 수 있을까? 사회시스템의 변화에 다양한 목소리를 내야하고, 인간중심적이고 인권적인 설계, 대안은 무엇이 있을까. 개인의 정보, 그 자체보다는 수없이 연결되고 집적되어 사람을 왜곡하고 가르고 배제시킨다는 사실이 소름끼친다.

*작성: 안영선_마나(활동회원)

텔레그램 채널구독

인권교육센터 들이 운영하는 텔레그램 채널을 구독하시면 들의 최신 소식을 가장 빠르게 만나보실 수 있습니다.