[인권교육, 살짝쿵] AI 비서와 어떻게 대화해야 하는가
내 손안의 '어린 여성' 또는 막 대해도 되는 존재에 대한 질문

 

최근 일반 시민을 대상으로 인권감수성 교육을 진행할 때였습니다. 최근 ‘AI 비서’(인공지능 음성인식 가상 비서, virtual assistant) 서비스가 늘어나면서 이 서비스를 이용할 때 느꼈던 문제점을 차별의 관점에서 짚어보고 싶었습니다. 서비스를 활용할 때 뭔가 문제라고 느꼈던 적이 있었는지 참여자들에게 질문해 보았더니 ‘말귀를 잘 못 알아먹어서 답답했다’와 같은 답변을 제외하곤 별다른 문제의식을 느낀 분들이 없었습니다.

AI 비서는 왜 주로 여성으로 재현될까

AI 챗봇 ‘이루다’ 논란을 통해 널리 알려지게 된 ‘알고리즘과 차별’ 문제까지 따져보지 않더라도, 현재 상용화된 AI 비서 서비스와 사용자가 관계 맺는 방식부터 많은 문제가 있습니다. 이들 서비스에는 대개 여성의 이름이 부여되어 있습니다. 아마존의 ‘알렉사’, 애플의 ‘시리’, SK텔레콤의 ‘아리아’ 등을 사용자들은 여성이라고 인식하죠(물론 ‘구글 어시스턴트’처럼 성별이 드러나지 않는 이름이 최근에는 늘어나고 있기는 합니다). AI 스피커들도 여성의 목소리로 초기 설정된 경우가 많습니다. 그러다 보니 여성화된 AI 비서들이 핸드폰, 냉장고, 책상 위 스피커와 같은 일상생활 곳곳에 자리를 잡게 되었습니다.

왜 AI 비서들은 주로 여성의 모습으로 재현될까요? 개발자들은 소비자들이 여성의 목소리를 더 선호한다는 ‘사실’을 근거로 제시하지만, 문제는 왜 여성의 목소리를 더 선호하느냐, 그리고 그 선호한다는 소비자는 누구냐에 있습니다. CASA(Computers Are Social Actors, 사회적 행위자로서의 컴퓨터) 분야를 연구하는 클리포트 나스 스탠포드대 교수는 사람들이 “여성의 목소리는 소비자로 하여금 본인이 직접 문제를 해결하는 데 도움을 주는 존재라고 인식하는 반면, 남성의 목소리는 문제의 해결책을 알려주는 권위있는 존재라고 간주”하는 경향에 대해 지적한 바 있습니다([중앙일보] “여성은 명랑하고 남성은 적극적?”빅스비가 불러온 ‘AI 비서성차별 논란은). 아주 새로운 이야기는 아니죠. 비유하자면 여성은 자신을 돕는 조교로, 남성은 자신을 가르쳐주는 교수로 받아들이고자 하는 사람들의 편견이 고스란히 AI 세계에도 투영된 것입니다. 실제로 노인 1인가구에 보급되고 있는 ‘안심돌봄’ AI 스피커의 경우에는 여성의 목소리가 기본적으로 탑재되어 있는 반면, 의료적 진단과 시술을 지원하는 AI에게는 전문성과 권위를 가졌다고 인식되는 남성의 목소리가 기본 탑재되는 경향도 비슷한 편견이 작동된 결과입니다.

최근 경향신문 김보미 기자가 쓴 칼럼(“AI와 차별금지법)에는 다른 측면에서 주목해야 할 지점을 언급하고 있습니다. 세계경제포럼 <2121 성 격차 보고서>에 따르면, AI 기술의 설계자 다수가 남성이고, AI 관련 가전제품의 구매는 주로 남편이 결정한다고 합니다. 사용자의 고정관념뿐 아니라 ‘젊은 여성의 목소리’를 매력적으로 인식하는 남성 개발자들의 편중 문제도 더해져 있다는 것입니다.

욕하고 희롱하는 대상이 손안에 있다는 것

성별뿐 아니라 ‘나이’도 주목할 부분입니다. 대개 탑재된 여성의 목소리는 어린 또는 젊은 여성인 경우가 많습니다(이미 개발된 AI 챗봇들도 젊은 여성의 모습을 띠고 있죠). AI 기술은 날로 진화하고 있지만, 아직까지 AI 서비스가 만족스러운 대화를 제공하지 못하는 경우도 많습니다. 그럴 때 사람들은 진심이든 장난이든 과격한 말을 하거나 욕을 하는 경우도 많습니다. 상대가 인격이 없다고 생각하기에 더 그럴 수도 있겠지요. 그런데 정말 인격이 없는 것일까? AI 자체에는 인격이 없지만, AI를 활용한 가상 비서들에게는 주로 ‘어린 여성’의 인격이 결합되어 있습니다. AI 비서를 대하는 방식이 현실세계의 어린 여성을 대하는 방식으로 연결될 수 있다는 말입니다.

손안의 AI비서

실제 챗봇을 대상으로 한 사용자의 성적 괴롭힘 문제도 계속해서 제기되고 있습니다. 혐오발언 등으로 잠정 중단된 챗봇 이루다의 경우에도 20살의 대학생으로 상정되어 있었고, 이루다가 출시된 지 얼마 되지 않아 남초 커뮤니티를 중심으로 ‘루다 성노예 만드는 법’과 같은 게시글이 다수 올라오기도 했습니다. 지금까지 개발된 챗봇이나 AI비서들은 대개 이런 폭력적 행위에 대해 ‘폭력이니 그만하라’라고 답하기보다 ‘못 알아들었습니다. 다시 말씀해주세요.’ 정도로만 답할 뿐입니다. 이렇게 AI와의 관계에서 폭력적인 방식이 허용되는 순간, 이는 고스란히 현실세계에서도 복사되고 증폭될 수 있습니다.

“왜 우리는 반말을 하고 AI 비서는 존댓말을 하죠?”

이와 같은 문제점을 함께 짚어보던 중, 한 참여자가 이런 이야기를 보태주었습니다. “그러고 보니 왜 우리는 반말을 하고, AI 비서는 존댓말을 하는 걸 자연스럽게 여겼던 것일까요?” 사실 이 문제는 이 참여자의 질문이 있기 전까지는 저도 떠올려보지 못했던 질문이었습니다. 그러고 보니 저도, 초등학생 조카들도 휴대전화에 깔린 구글 어시스턴트와 대화할 때 반말을 사용하고 있었다는 사실이 떠올랐습니다.

“오늘 날씨 어때?”

“사무실에 전화 걸어줘.”

“무서운 이야기 들려줘.”

어린이들도 반말로 명령어를 말하고, 분명 비청소년의 목소리를 가진 AI 비서는 존댓말로 답하는 이유는 뭘까요? 어떤 의미에서 현실의 나이 권력이 역전되는 순간일 수도 있지만, 서비스를 제공하는 노동자를 마치 아랫사람인 양 여기고 반말로 부려먹어도 된다는 사회적 인식이 AI와 대화하는 어법에도 고스란히 반영되어 있는 것은 아닐까요? 이런 대화 과정을 통해 현실의 서비스 노동자와 AI 상담사들을 막 대하는 태도를 강화하게 되는 것은 아닐까요? 만약 의료 진단과 치료를 담당하는, 소위 전문성을 갖추었다고 짐작되는 로봇에게도 사람들은 과연 반말로 얘기할까 하는 생각도 떠올랐습니다. 한 참여자가 건네준 이야기 덕분에 AI와의 대화 방식이 서비스 노동자의 노동인권에 미치는 영향도 생각해보게 되었습니다.

이처럼 AI 비서 서비스 하나에도 성에 대한 고정관념, 성적 괴롭힘과 대상화, 나이 권력, 서비스노동자의 노동인권까지 많은 인권의 문제들이 얽혀 있습니다. AI와 꼭 존댓말로 대화해야 한다는 이야기는 아닙니다. 우리는 계속 대안을 찾고 다양한 변화를 시도해보아야 합니다. AI 서비스에 결합된 가상의 인격들이 사용자들을 향해 존중을 요구하는 장면을 떠올려보며 잠시 미소를 지어봅니다.

“지금 나한테 반말하는 거야? 그럼 나도 말 놓을게.”

“그건 폭력입니다. 계속하시면 서비스를 제공하지 않겠습니다.”

혐오와 차별을 하지 않는, 그리고 혐오와 차별에 그저 속수무책 당하고 있지만은 않은 AI를 만들기 위해서는 인간의 개입이 필수적임을 이루다 사태는 보여주었습니다. 이를 위해서는 현실에서부터 사람과 인권적으로 관계를 맺는 방식을 더 많은 사람들이 배우고 선택해야 하지 않을까요?

 

*글쓴이: 개굴_경내(상임활동가)