본문 바로가기 주메뉴 바로가기 검색 바로가기
감정 AI, 감정 대체 대상 아니다
상태바
감정 AI, 감정 대체 대상 아니다
인공지능은 인간의 감정 표현을 대신할 수단이 되려 시도하지만, 실패할 것이다.
By PRAGYA AGARWAL, WIRED UK

2023년에는 인간의 감정 이해와 상호작용이 가능한 기술인 감정 인공지능(AI)이 머신러닝 애플리케이션 중 주류 애플리케이션이 될 것이다. 예를 들어, 전직 구글 연구원인 앨런 코웬(Alan Cowen)이 설립한 머신러닝 모델 연구 기업인 흄 AI(Hume AI)는 언어 표현과 표정, 음성 표현으로 감정을 측정하는 툴을 개발 중이다. 스웨덴 기업 스마트 아이즈(Smart Eyes)는 MIT 미디어 연구소(MIT Media Lab)의 분할 기업이자 오디오 샘플로 1.2초 이내에 분노와 같은 감정을 분류하는 알고리즘인 사운드넷(SoundNet) 신경망 개발사인 어펙티바(Affectiva)를 인수했다. 화상회의 플랫폼 줌은 사용자에게 조만간 제공할 예정인 실시간 감정 및 가상 회의 참여도 분석 기능인 줌 IQ(Zoom IQ)를 공개했다.

2023년, 테크 기업은 인간의 감정을 비슷하게 흉내 내고는 감정적으로 사용자와 관계를 더 연결한 첨단 기술 기반 챗봇을 뱅킹, 교육, 헬스케어 등 여러 산업 부문 전반에 걸쳐 배포할 것이다. 마이크로소프트가 개발한 챗봇 샤오이스(Xiaoice)는 이미 중국에서 성공을 거두었다. 샤오이스의 일반 사용자는 샤오이스와 한 달 동안 60회 이상 대화한다. 샤오이스는 사용자가 봇이라는 사실을 10분 이내로 알아차리지 못하는 등 튜링 테스트를 통과하기도 했다. 시장 조사 기관 주피터 리서치 컨설턴시(Juniper Research Consultancy)는 2023년 헬스케어 산업에서 챗봇의 상호작용 사례가 2018년보다 약 167% 기록한 28억 건에 이를 것이라는 분석 결과를 제시했다. 의료진의 업무 부담을 덜고, 전 세계 헬스케어 체계 예산 37억 달러 절감 효과를 가져올 것으로 기대된다.

2023년에는 공교육 현장에서 감정 AI를 사용하는 일이 보편화될 것이다. 홍콩의 일부 중고등학교는 파인드 솔루션 AI(Find Solutions AI)가 개발한 AI 프로그램을 활용한다. 해당 프로그램은 학생 안면 근육의 미세한 움직임을 측정하고는 각종 긍정적, 부정적 감정을 확인한다. 교사는 AI 시스템을 이용해 학생의 감정 변화와 동기, 수업 집중도를 추적하고는 조기에 수업 흥미를 잃은 학생을 지도하도록 한다.
 
[사진=Freepik]
[사진=Freepik]

그러나 감정 AI 다수가 결함이 있는 과학을 기반으로 한다는 문제가 있다. 감정 AI 알고리즘은 다양한 대규모 데이터세트로 훈련을 마치더라도 개인의 사회적, 문화적 맥락과 상황을 고려하지 않은 채로 표정과 음색 표현을 감정으로 축소한다. 예를 들어, 알고리즘은 누군가가 우는 순간을 인식하지만, 그 이유와 눈물의 의미는 정확히 알지 못한다. 이와 마찬가지로 얼굴을 찡그렸다고 해서 무조건 분노를 의미하는 것은 아니다. 그러나 알고리즘은 분노라는 감정으로 결론을 내릴 확률이 높다. 그 이유는 무엇일까? 인간은 사회적, 문화적 규범에 따라 겉으로 보이는 감정적 요소를 변경한다. 따라서 표정이 항상 진짜 내면을 반영하는 것은 아니다. 많은 인간이 종종 진짜 감정을 숨기려 표정을 이용한 감정 작업을 한다. 감정 표현 방식은 동시 표현이 아닌 학습된 반응일 확률이 높다. 예를 들어, 여성은 특히, 분노와 같은 부정적이라고 설명할 수 있는 감정을 느낄 때 남성보다 진짜 감정을 드러내지 않도록 감정을 자주 변경한다. 사회적 기대감 때문이다.

이처럼 감정 상태를 추측하는 AI 기술은 사회의 성 불평등과 인종 불평등 문제를 악화할 확률이 높다. 예를 들어, 2019년 유네스코 보고서는 수동적 감정과 응대라는 고정관념에 따라 설계한 여성적인 음성 비서 시스템과 같이 AI 기술의 성별 부여가 해로운 영향을 미친다고 입증했다.

표정 인식 AI는 인종 불평등 문제를 일으킬 수도 있다. 인기 감정 인식 소프트웨어 프로그램인 페이스(Face)와 마이크로소프트의 페이스 API(Face API)로 NBA 경기 400경기를 분석했을 때, 흑인 선수가 웃고 있을 때도 보통 부정적인 감정을 부여할 확률이 더 높은 것으로 나타났다. 공격성, 위협성이라는 고정 관념 때문에 흑인 남성이 직장에서 더 긍정적인 감정을 주입해야 한다는 연구 결과를 통해 재차 확인할 수 있는 바이기도 하다.

2023년에는 감정 AI 기술이 더 만연해질 것이다. 그러나 문제 해결과 검증이 없다면, 조직화된 성별 및 인종 편견을 강화하고, 세계의 불평등 문제를 반복하면서 심화할 수 있다. 더 나아가 이미 소외된 이들에게 불이익을 더할 수 있다.

** 위 기사는 와이어드UK(WIRED.co.uk)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Emotional AI Is No Substitute for Empathy
이 기사를 공유합니다
RECOMMENDED