본문 바로가기 주메뉴 바로가기 검색 바로가기
디지털 어시스턴트의 미래는 ‘퀴어’?
상태바
디지털 어시스턴트의 미래는 ‘퀴어’?
AI 어시스턴트의 남성우월주의적 고정 관념이 계속 강화된다. 그러나 디지털 어시스턴트가 활성화된 기기의 음성 성별을 중성화한다면, 성별 관계 자체를 아예 다시 상상하는 데 도움이 될 것이다.
By SALOMÉ GÓMEZ-UPEGUI, WIRED US

2021년 11월, 스미스소니언 박물관에서 개최되는 퓨처스(FUTURES) 페스티벌과 함께 세계에 변화를 이끌 각종 혁신을 선보일 현장에 익숙한 얼굴이 등장한다. 아니, 더 정확히 말하자면, 익숙한 음성이라고 말할 수 있겠다. 2019년, 최초의 성별 없는 AI 음성인 Q가 그 주인공이다. Q는 특정 성별을 정확히 정하지 않은 채로 특수 생성된 디지털 어시스턴트이다.

Q의 공동 개발자 중 한 명인 라이언 셔먼(Ryan Sherman)은 “Q는 성별 기술이 탄생한 이유와 성별을 부여하지 않은 기술이 적용되기 시작할 때를 주제로 한 대화와 함께 설계되기 시작했다”라고 말했다. Q의 음성 설계를 위해 언어학자와 음향 엔지니어로 구성된 팀이 특정 성별이 없는 성 정체성을 지닌 개인과 다른 여러 음성 표본 등과 함께 협력하여 현재의 디지털 어시스턴트를 대대적으로 바꾸어 AI 세계에서 특정 성별을 나타낼 일이 없을 가능성을 느끼도록 하는 다양한 음향 범위에 도달하도록 한다.

2014년, Q가 처음 발표되었을 당시 “세계가 지금 당장 개발해야 할 성별 없는 디지털 음성”이라고 극찬받았다. 그와 동시에 여성을 고분고분하게 복종하는 대상이라고 치부하는 여성 혐오주의적 고정관념이 계속 이어지도록 하는 여성화된 어시스턴트의 병폐를 인정하게 되었다. Q는 국제연합기구(UN)의 디지털 능력 속 성별 다양화 사례 보고에서도 호평받았다. 해당 보고서는 거의 모든 디지털 어시스턴트가 이름과 음성, 말하는 방법, 특성 등 모두 여성화되었다는 점을 지적한다. ‘수치심을 느낄 수 있었다면(I’d blush if I could)’라는 제품의 보고서는 시리가 처음 ‘계집'이라고 부른 사용자의 명령에 답한 두고 답을 보낸다. (이제 시리는 단순히 “무슨 말씀인지 이해하지 못했다"라는 말을 한다.) 또 다른 발전 조짐으로 2021년 초, 애플이 시리의 여성 음성을 기본값으로 제공하는 기능을 제거하면서 남성 음성도 선택할 수 있도록 한다. 또한, 미국 사용자가 ‘음성 1’, ‘음성 2’, ‘음성 3’ 등과 같은 이름으로 음성 종류를 지칭하도록 한다. 구글 어시스턴트와 코타나도 현재 남성 음성 사용을 허용하면서 기업이 기존 음성 제품에 제기된 사용자의 대중적 반발에 대응하도록 한다.

그러나 디지털 어시스턴트의 여성화는 단순히 남성 음성을 추가하는 것 이상의 노력이 필요하다. 기존의 남성적 영역 혹은 여성적 영역으로 표현한 영역에 성별 없는 AI 음성을 사용한다는 생각 자체도 인간이 지닌 고정관념 강화 기피에 관한 생각에서 직면하게 될 잘못된 생각을 어느 정도 드러낸다. 특히, Q는 특정 성별이 없는 성 정체성을 지닌 개인의 성별을 남성과 여성이라는 기준의 바깥이 아닌 그 중간이라는 구시대적 믿음을 강화할 수 있다. 중립성을 위해 고군분투할 것이 아니라 디지털 어시스턴트와 성별 간의 관계 미래 자체를 다시 그려야 한다.

디지털 어시스턴트의 성별 문제를 위해 나아갈 한 가지 길은 호주 모내시대학교 인간 중심 컴퓨팅학 요랜드 스트렌저스(Yolande Strengers) 교수와 『스마트와이프: 시리와 알렉사, 왜 페미니스트 로봇이 필요한가(The Smart Wife: Why Siri and Alexa Need a Feminist Reboot)』의 공동 저자인 제니 케네디(Jenny Kennedy)가 거둔 성과를 이야기할 수 있다. 스트렌저스 교수와 케네디 모두 몇 가지 요소에서 발생하는 성별을 아예 제거하는 것이 해결책이 아니라고 생각한다. 기기가 성별을 대하는 방식을 지나치게 단순화한 탓이다. 스트렌저스 교수는 “기기의 성별 문제는 단순히 음성 때문에 발생하는 것이 아니다. 디지털 어시스턴트가 말하는 것과 특성, 형태, 목적 등도 성별 문제에 영향을 미친다”라고 설명했다. 대신, 스트렌저스 교수는 케네디와 함께 디지털 어시스턴트를 퀴어로 만들면서 성별 고정관념에 저항하는 방안을 제안했다.

디지털 어시스턴트의 퀴어화는 가장 간단하면서도 역효과 발생 위험성을 없앤 채로 디지털 어시스턴트가 단순히 여러 기업이 채택해온 타인을 즐겁게 하면서 복종하는 성격을 지닌 성격 구현과는 반대로 세계 여러 지역에 존재하는 다른 여러 여성성의 특성을 더 정확하게 나타낼 수 있도록 한다.
 
[사진=Unsplash]
[사진=Unsplash]

Q는 디지털 어시스턴트 기기가 퀴어로 변한 후의 모습을 보여준다. 다만, 스트렌저스 교수는 “성별을 퀴어로 변경하는 것이 유일한 해결책이라고 할 수는 없다”라고 덧붙였다. 또 다른 해결책은 다른 방식으로 디지털 어시스턴트의 남성성을 부여하는 것이다. 한 가지 예시로 소프트뱅크 로보틱스가 개발한 얼굴과 인간의 기본 감정을 인식하는 휴머노이드 로봇 페퍼(Pepper)를 언급할 수 있다. 그동안 페퍼는 주로 남성으로 지칭하였다. 혹은 2017년 등장해, 남성으로 주로 지칭한 가정용 소셜 로봇 지보(Jibo)를 언급할 수도 있다. 다만, 지보는 헬스케어와 교육에 초점을 맞춘 기기로 제2의 삶을 얻었다. 스트렌저스 교수와 케네디 모두 부드러운 카리스마라는 남성성을 선보인 점에서 페퍼와 지보가 올바른 방향으로 향하는 긍정적인 단계라고 말한다. 예의 바른 질문에 대한 응답 방식과 종종 남성과 같은 모습을 선보이고, 종종 즐겁게 움직이기도 하고 하면서 관심을 사로 잡은 것을 예시로 이야기할 수 있다.

디지털 어시스턴트의 성별을 퀴어로 바꾸면서 기술의 인격화가 이루어진 성격을 지닌 봇을 생성할 수 있도록 한다. 2019년, 캐피털 원(Capital One)이 설치한 로봇 이노(Eno)에 성별을 물어보았을 때, 이노는 다음과 같은 재치 있는 답변을 했다. “이노는 남성도, 여성도 아니다. 남성과 여성 둘 다 해당한다는 의미가 아니라 둘 중 하나 혹은 둘 다 아니라는 점을 의미한다. 이노를 채팅 봇처럼 생각하라”라는 반응이 이어졌다.

온라인 뱅킹용 AI 소프트웨어 개발사인 카시스토(Kasisto)가 개발 한 온라인 뱅킹 챗봇 카이(Kai)는 인간의 특성을 아예 제거했다. 매사추세츠주에 거주하는 카이 프로그램 작성자이자 UX 디자이너 재클린 펠드만(Jacqueline Feldman)은 카이가 성별이 없는 봇으로 설계됐다고 말한다. Q처럼 성별이 없다는 특성을 내세우지 않지만, ‘그것’이라고 지칭하면서 로봇의 특정한 정체성을 활용한다. 펠드만은 “디자이너의 관점에서 보았을 때, 봇은 훌륭한 설계와 봇에만 해당하는 훌륭한 방식으로 멋진 설계가 가능하다. 인간인 척할 필요는 없다”라고 말했다.

카이에 실제 인간인지 물어보자 카이는 “봇은 그저 봇일 뿐이다. 다음 질문을 하라”라며, 카이는 인간도 아니고, 인간인 척 할 생각도 없다는 점을 시사했다. 성별 관련 질문을 했을 때는 “카이는 봇이지 인간이 아니다. 그러나 카이는 학습을 할 수 있다. 이를 머신러닝이라 지칭한다”라고 답변했다.

봇 정체성은 카이 악용 사례가 없다는 사실을 의미하는 것은 아니다. 펠드만은 몇 년 전, 카이가 희롱 문제를 피하고 차단할 능력을 갖추도록 의도적으로 설계하는 방안을 논의했다. 예를 들어, 어느 한 사용자가 악의적으로 희롱 발언을 계속한다면, 카이는 “백사장과 해먹을 상상 중이다. 나중에 문의하라”와 같은 답변을 할 수 있다. 2017년, 펠드만은 호주 방송협회(Australian Broadcasting Corporation in)에 “봇이 어느 정도 존엄성을 갖도록 최선을 다하고 있다”라고 말했다.

펠드만은 지금도 봇이 정체성을 봇으로 스스로 확인하기 위해 윤리적으로 중요한 부분이 있다고 확신한다. 펠드만은 “기업이 봇을 인간과 상호작용하기 쉽게 만들어, 봇이라는 사실을 잊도록 설계하는 과정에서 투명성이 없다”라며, 봇의 성별 지정이나 인간의 목소리를 부여하는 것은 매우 다르다고 말한다. 사용자의 챗봇 사용 경험 상당수가 분노를 일으킬 수 있는 탓에 많은 사용자가 봇 대신 인간과 대화하고자 할 수 있다. 그러나 펠드만은 봇이 인간과 같은 대화의 질을 완전히 갖춘 것을 과도한 설계라고 생각한다.

봇의 성별 문제는 구글 어시스턴트에 통합된 구글 듀플렉스(Google Duplex) 출시와 함께 상당한 주목을 받았다. 널리 알려진 바와 같이 소름 끼칠 정도로 인간의 목소리를 흉내 내 음식점 예약이나 미용실 예약을 완료하는 기능을 지원한다. 구글 듀플렉스 기술이 비윤리적이면서 끔찍하다는 여러 차례의 비판 이후 구글은 사용자가 대신 전화를 걸도록 요청할 때만 로봇 기능을 실행하도록 한다고 공식 발표했다. 2019년, 캘리포니아는 봇이 온라인에서 정체를 밝힐 것을 요구하는 법률을 시행하는 첫 번째 주가 되었다. 캘리포니아주 법률은 허점과 심각한 결함이 있다는 평가를 받았으나 봇의 정체성과 관련된 유일한 법적 성과이다.

디지털 어시스턴트와 성별 간 관계의 미래를 재구상하고자 한다면, 기업은 미래의 모습을 담은 비전을 열심히 살펴보고, 기업 차원에서 진정으로 원하는 획기적인 변화라는 어려운 질문을 던져야 한다. 현재까지 AI와 데이터 과학 전문 분야 종사자 75%는 남성이다. 전문직 종사자의 성비 격차를 볼 수 있다. 디지털 어시스턴트의 성별을 퀴어로 정하는 것은 다양한 여성과 특정 성별이 없는 이들이 디지털 어시스턴트 설계 과정에서 중요한 역할을 할 때만 가능한 일이다. 기존의 남성 혹은 여성이라는 이분법적인 성별 구분 범주에서 많은 기업이 차이가 있어야만 혁신을 이룰 수 있다는 사실을 이해해야 한다. 다양한 방법으로 나아갈 수 있으며, 무한한 가능성 탐색으로 나아가야 한다. 스트렌저스 교수는 “퀴어는 다양성의 문제이다. 단순히 모든 문제를 해결할 한 가지 해결책이 아니다. 사용자가 기존의 규범에서 벗어나 지금까지 디지털 어시스턴트에 탑재된 이성애 중심 모델을 없애려는 다양한 경험과 선택 설정을 나타내는 문제이다”라고 주장했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
The Future of Digital Assistants Is Queer
이 기사를 공유합니다
RECOMMENDED