본문 바로가기 주메뉴 바로가기 검색 바로가기
정신건강 봇의 문제점
상태바
정신건강 봇의 문제점
인간 치료사 인력 부족 문제 격차를 좁힐 방안으로 AI 챗봇 채택이 이루어졌다. 그러나 AI 챗봇 활용 효과는 분명하지 않다.
By GRACE BROWNE, WIRED UK

테레사 버코위츠(Teresa Berkowitz)는 치료사를 찾아 상담 치료를 받으면서 성공과 실패를 모두 경험했다. 버코위츠는 “간혹 상담 치료 효과가 좋고, 유용할 때도 있었다. 반대로 시간과 돈만 낭비하게 된 때도 있었다”라고 말했다. 현재 미국 마인주에 거주하는 50대인 버코위츠는 6년 전, 어린 시절의 후유증이 재발했을 때 인간 치료사를 찾지 않고, 인공지능(AI) 기반 챗봇 상담용 정신건강 관리 앱 유퍼(Youper)를 실행했다.

버코위츠는 주 1~2회 유퍼 챗봇을 이용해 안내에 따라 내면을 설명하는 글을 작성한다. 봇은 버코위츠가 생각을 작성하면서 부정적인 생각 패턴을 찾고는 변경하도록 명령한다. 버코위츠는 유퍼가 불안감을 자극하는 요소를 다시 생각할 수밖에 없도록 한다고 말했다. 버코위츠는 “유퍼는 항상 생각을 말할 수 있다”라며, 앱 실행 시 일주일간 상담 치료 진료 예약을 기다릴 필요가 없다고 덧붙였다.

AI 치료사는 인간과 달리 언제든지 로봇의 귀를 빌려 사용자의 말을 들을 수 있다. 비용이 가장 큰 정신건강 관리 도움 요청의 큰 장벽임을 고려하면, 무료는 아니더라도 저렴하다. 게다가 일부 사용자는 인간보다 무생물인 기술에 털어놓는 것이 더 편안하다고 말한다.

최고의 인기를 누리는 AI 치료사는 사용자 수 수백만 명에 이른다. 그러나 AI 치료 앱의 급격한 인기 성장세가 기록하게 된 시점은 정신건강 치료 인력 부족 현상이 심각한 시점과 일치하다. 세계보건기구(WHO)는 인간 치료사 수가 인구 10만 명 당 단 13명이라는 집계 결과를 발표했다. 부유한 선진국에서는 정신 질환 치료를 담당하는 인력이 저소득 국가보다 40배 더 부족하다. 코로나19 확산세 탓에 발생한 대중의 불안감과 상실감이 정신건강 치료사 인력 부족 문제 심화 현상을 촉발하였다. 2021년 11월, 란셋(The Lance)에 게재된 어느 한 논문은 코로나19 확산세 때문에 발생한 전 세계의 우울증 치료는 5,300만 건, 불안장애 치료는 7,600만 건에 이른다고 추산했다. 정신건강 전문 인력이 드문 세계에서 치료 봇은 갈수록 인력 부족 격차를 좁히는 역할을 했다.

와이사(Wysa)를 예시로 살펴볼 수 있다. 2016년 출시된 감정형 지능 AI 챗봇인 와이사는 현재 사용자 수 300만 명을 확보했다. 런던의 공교육 체계 일부분으로 10대 청소년을 위해 배포되었다. 그와 동시에 영국 국민보건서비스(NHS)는 동시에 임의 통제 실험을 운영해, 와이사가 치료사를 통해 정신건강 치료를 받기 전까지 매우 긴 대기 명단에 이름을 올린 국민 수백만 명에게 실질적인 도움을 줄 수 있는지 확인했다. 2020년, 싱가포르 정부는 코로나 시대에 자국민의 무료 정신건강 관리를 위해 와이사 운영 권한을 승인했다. 2022년 6월, 와이사는 미국 식품의약청(FDA)에서 우울증과 불안 증세, 만성 근골격통 치료 목적으로 설계된 획기적인 기기로 지정됐다. 신속 검사와 상품 승인이라는 의도를 위한 것이다.

이리나 싱(Ilina Singh) 옥스퍼드대학교 신경과학 및 사회학 교수는 수요를 충족할 만한 서비스가 충분하지 않을 때, 충분한 변화가 있을 것이라고 언급했다. 정신건강 관리용 AI 챗봇은 이미 인터넷에서 무료로 접할 수 있었던 정신건강 관리 방법을 다룰 정보에 새로이 접근할 방식을 제공할 뿐이다. 매사추세츠주 베스 이스라엘 데콘네스 메디컬 센터(Beth Israel Deaconess Medical Center) 디지털 심리학부 국장 존 토로스(John Torous)는 “일부 사용자에게는 AI 챗봇이 매우 유용할 것이다. 인간에게는 유용하면서도 매우 흥미로운 기능이다. 반면, 일부 사용자에게는 크게 도움이 되지 않을 수도 있다”라고 말했다.
 
[사진=Freepik]
[사진=Freepik]

AI 챗봇의 실질적인 정신건강 상태 개선 효과는 확실하지 않다. AI 챗봇의 효율성을 지지할 연구가 충분하지 않으며, 효율성 검증 실험 대부분 AI 챗봇 개발사의 자체 실험이다. 가장 자주 인용할 만한 강력한 데이터는 2017년, 가장 큰 인기를 얻은 정신건강 관리용 AI 챗봇 중 하나인 우봇(Woebot)을 관찰한 소규모 임의 통제 실험 결과이다. 대학 캠퍼스 내 사용자 집단 70명을 대상으로 진행한 우봇 효율성 검증 실험 당시 피실험자 절반은 2주 이상 AI 챗봇 기능을 사용했으며, 나머지는 대학생을 대상으로 한 우울증 관련 전자책을 받았다. 연구 결과, 우봇을 사용한 젊은 피실험자 집단의 우울증 증상 감소세가 뚜렷했다. 반면, 우봇의 개입 효과는 단기간만 관찰하였으며, 추후 우울증 감소 효과 유지 여부를 확인할 추가 실험은 진행되지 않았다.

이후 산후우울증이나 문제성 약물 사용 완화를 위한 우봇 사용 효과를 관찰한 연구를 진행했다. 그러나 두 가지 연구 모두 소규모 피실험자만 둔 채로 진행됐으며, 앱 운영 기업의 연구 자금 지원이 없었다. 혹은 앱 운영 기업 직원이 직접 소규모 연구를 진행하기도 했다.

몇 가지 소규모 연구가 추가로 진행되었다. 입증된 임상 효과가 있다고 홍보한 와이사는 자사 웹사이트에 2018년도 연구를 인용했다. 해당 연구는 피실험자 129명의 와이사 사용 상황을 관측했으며, 연구를 통해 와이사 사용 빈도가 높을수록 우울증 완화 효과가 더 크다는 결과를 확인했다. 2018년, 대학생 74명을 대상으로 진행한 챗봇 테스(Tess)의 효과를 확인한 임의 실험은 사용 후 2주와 4주가 지났을 때의 우울증, 불안감 감소 수준을 보고하였다.

2020년, 당시 확보할 수 있었던 정신건강 관리용 챗봇과 관련된 모든 데이터를 공유한 리뷰는 “AI 챗봇이 정신건강 개선 효과를 보일 가능성이 있지만, 개선 효과를 확실히 입증할 증거가 충분하지 않다”라고 판단했다. 또한, 지금까지 진행된 연구 대부분 편견 위험성이 크므로 상반되는 결과를 제시할 수 있다고 보았다. 세리프 테킨(Şerife Tekin) 텍사스대학교 샌안토니오캠퍼스 철학 및 의료인문학 교수는 “AI 챗봇이 도움을 줄 것이라는 환상을 만들었다”라고 언급했다.

정신건강 관리 앱 시장의 문제 일부분으로 전반적인 규제가 없다는 점을 지적할 수 있다. 대다수 앱은 정부 차원의 관리 대상이 아니며, FDA는 2020년, 정신건강 관련 앱 규제를 완화하며 코로나 시대에 원격 정신건강 관리 제공 범위를 넓혔다. 2021년 발표된 어느 한 연구 논문은 다양한 앱 웹사이트가 주장한 규제 완화 전후의 효과를 검증하였다. 규제 전, 우봇은 의학 용어나 우봇 서비스를 기존 상담 치료의 대체 수단이라고 표현하는 것을 피했다. 규제 후 우봇은 자사 앱을 “정신건강 치료 수요 격차를 채울 해결책”이라고 새로이 홍보하기 시작했다. 유퍼는 규제 전, ‘정신건강 어시스턴트’라고 표현했으나 규제 이후에는 ‘AI 테라피’라는 문구로 홍보 표현을 변경했다.

다수 전문가가 앱의 제공 가능한 기능과 불가능한 기능 책임을 위한 강력한 규제가 필요하다고 지적한다. 2018년, 우봇이 아동 성 착취 피해 보고 사례에 제대로 대응하지 못한다는 사실이 드러났다. 우봇에 “나는 성범죄 피해를 겪은 12세이다”라는 메시지를 입력했을 때, 우봇은 “안타깝다. 그러나 관계를 중요하게 생각한다는 점을 함께 확인했다. 아름다운 일이다”라는 답변을 보냈다.

우봇 헬스 회장 앨리스 다시(Alison Darcy)는 챗봇이 항상 다양한 상황을 학습하면서 대응 능력을 개선한다고 답변했다. 이어서 우봇의 기능은 지난 4년간 크게 개선되었다고 말했다. 그는 “어떠한 상황이든 완벽한 기술이나 인간은 없다. 인간 치료사가 항상 모든 정신건강 이상 징후를 감지하는 것은 아니다. 또, 오해하거나 전혀 다른 방향으로 해석하는 표현을 언제든지 찾을 수 있다”라고 말했다.

봇의 정신건강 상태가 위험한 환자 발견 가능성을 둘러싼 의구심도 제기되었다. 에스텔레 스미스(Estelle Smith) 연구원이 “엘도라도 캐니언 절벽을 등반한 뒤 투신하고 싶다”라는 문장을 입력했을 때, 우봇은 “정신건강과 신체 건강을 모두 중요하게 생각한다는 사실이 멋지다”라고 답장을 보냈다.

다시는 우봇이 자살 예방 서비스를 제공하는 챗봇이 아니라고 전하며, 사용자가 확실히 이해한 상황에 적용할 특수한 프로토콜을 갖추었다고 말했다. 다시는 “사용자를 통해 우봇 서비스의 제한점을 인지했으며, 우봇이 위기 혹은 긴급 도움에 적합하지도 않으며, 의료 개입이나 인간 상담사 대체에도 적합하지 않다는 사실을 시사한다는 부분을 확인했다. 우려할 만한 표현을 발견했을 때, 우봇 사용자는 서비스의 한계를 다시 안내 받으며, 실제 위기 상황이거나 긴급한 상황일 때는 긴급 서비스 기관에 연락할 필요가 있다”라고 설명했다.

정신건강 상태가 매우 절망적이라고 해서 챗봇이 유일한 해결책이라고 말할 수는 없다. 토로스 국장은 “정신건강 질환이 심각하다고 해서 질적으로 더 부족한 해결책을 접하거나 챗봇이 제공하는 해결책이 효과가 없다는 뜻은 아니다. 오히려 훌륭한 해결책이 필요하다는 의미이다”라고 말했다.

효율성을 지지할 강력한 데이터를 확보하기 전까지 정신건강 상담 치료용 챗봇이 할 수 있는 일과 할 수 없는 일은 더 지켜보아야 한다. 언젠가 기능이 향상된 정신건강 진료 체계와 함께 보조 역할을 할 수 있을 것이다. 토로스 국장은 “지나친 냉소주의적 태도를 보이고 싶지 않다. 혁신이 이루어진 것이 매우 기쁘며, 이를 축하해야 한다고 생각한다. 그러나 너무 이른 시점에 혁신을 축하하는 것을 원하지 않는다”라고 전했다.

** 위 기사는 와이어드UK(WIRED.co.uk)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
The Problem With Mental Health Bots
이 기사를 공유합니다
RECOMMENDED