필자가 만난 환자에게는 이상한 일이 아니었다. 해당 환자는 몇 년간 연애를 하고 싶어 했으나 결과가 좋지 않았다는 이야기를 했다. 하지만 필자가 환자에게 무슨 일인지 물어보기도 전에 환자는 “그래서 챗봇에 원하는 바를 물어보기로 했다”라는 말을 덧붙였다.
음… 무슨 뜻인가? 인간 인공지능(AI)을 바탕으로 실행되는 인간의 대화 시뮬레이션이 가능한 챗봇이 언론에 숱하게 보도되었다. 하지만 직접 만난 환자 중 실제로 조언을 구할 목적으로 챗봇을 사용한 사례는 없었다.
필자는 궁금해져서 “챗봇이 어떤 답변을 했는가?”라고 물어보았다.
환자는 “데이트 상대에게 그녀의 가치관을 중요하게 생각한다는 말을 하라는 답변을 했다”라고 말했다.
그리고 필자는 “효과가 있었는가?”라고 다시 물어보았다.
환자는 한숨을 내쉬더니 두 손을 들어 올리며, “두 가지 상황을 추측한다”라고 말했다. 필자가 만난 환자 중 챗봇을 통해 조언을 구했다고 말한 환자를 처음 만났던 상황이다. 하지만 이제 심리 상담 도중 새로 필자를 찾는 환자가 필자를 찾기 전 챗봇에 먼저 조언을 구했다고 밝히는 사례를 주기적으로 접한다. 대부분 연애, 관계 관련 조언을 구한다. 하지만 챗봇은 환자의 자녀와의 관계를 연결하기도 하고 경계를 긋기도 한다. 혹은 챗봇이 멀어진 친구 사이를 다시 끈끈한 관계로 강화하기도 한다. 챗봇에 조언을 구한 결과는 다소 엇갈린다.
필자가 새로 만난 환자 중 챗봇에 사랑하는 이의 기일을 보낼 법을 물어보았다고 밝혔다. 챗봇이 건넨 조언은 “별도로 시간을 내서 고인이 된 이와 관련된 특별한 점을 기억하라”였다. 필자는 챗봇이 전문가보다 더 낫다고 말할 수 없었다.
환자는 “챗봇의 답변을 보고, 그동안 슬픔을 피하려 했다는 사실을 깨닫게 되어 눈물을 멈출 수 없었다. 결국, 고인을 기리기 위해 별도로 시간을 냈다”라고 말했다.
필자가 만난 또 다른 환자는 친구와 사이가 멀어지자 AI에 의존하기 시작했다고 밝혔다. 환자는 “조언을 구할 목적으로 챗봇을 사용하는 것을 멈출 수 없었다”라고 말했다.
심리 치료 전문가인 필자는 AI 챗봇의 심리 상담 분야 진출 가능성에 경각심을 가지면서도 흥미를 느낀다. AI가 미래 핵심 기술이 될 것을 의심하지는 않는다. AI는 이미 커버레터, 연설문 작성부터 여행 계획 세우기, 결혼식 축사 준비 등 여러 작업에 유용하다는 사실을 입증했다. 그렇다면, AI가 인간의 관계에 도움을 주지 못하도록 할 이유가 있는가? 신생 벤처 기업인 레플리카(Replika)는 인간을 돌보는 AI 동료 개발을 추진했으며, 인간과 사랑에 빠지는 연애 아바타도 제작했다. 캐릭터.ai(Character.ai)를 포함한 다른 웹사이트는 사용자가 가장 좋아하는 소설 속 등장인물과 대화하고 한가하게 시간을 보낼 수 있는 기능이나 사용자가 직접 봇을 제작하여 만들도록 한다.
하지만 인간은 거짓 정보의 시대를 살고 있다. 이미 거짓임을 인지하지 못하거나 악의를 지닌 인간 사이에서 알고리즘이 거짓과 음모론을 유포하는 우려스러운 사례가 알려졌다. 챗봇이 인간의 감정적 생활 속에서 살도록 둔다면, 어떤 일이 벌어질까?
[사진=Freepik]
뉴욕 아이칸의과대학 마운트시나이 병원 정신 의학부 부교수 나아마 호프만(Naama Hoffman)은 “AI가 인간과 같이 감정을 표현한다면, 사용자 스스로 AI의 목적을 두고 의문을 제기해야 한다. 인간관계나 상담 목표는 삶의 질 개선이다. 반면, AI의 목표는 언급 빈도가 가장 많은 것을 찾는 것이다. 반드시 인간에게 도움을 주는 것은 아니다”라고 설명했다.
심리 치료 전문가로서 필자는 챗봇의 도움 없이 상담 치료 업무의 이점을 최대한 누릴 수 있다는 사실을 알고 있다. 필자는 20년간 후유증을 앓고 있는 환자 집단을 치료해 왔으며, ‘안전 기반 치료(Seeking Safety)’와 같은 방식을 중심으로 심리 교육적 체계의 발판이 더 깊은 감정적 반응이 원활하게 이루어지도록 하는 사례를 보았다. 결과적으로 초기 챗봇인 엘리자(Eliza)는 끊임없이 답이 정해져 있지 않은 질문을 한다는 점에서 ‘가상 치료 전문가’로 설계됐다. 엘리자는 지금도 사용할 수 있다. 챗봇은 영감을 찾거나 방어적 태도를 없애면서 심리 치료를 시작하도록 도울 수도 있다. 하지만 챗봇에 지나치게 의존하기 시작하는 시점을 언제로 지목할 수 있을까?
호프만 부교수는 “AI의 제안 사항은 응급조치와 같이 고통을 견디도록 도움을 줄 수 있다. 하지만 AI의 제안 사항을 활용하지 않는다면, 달라지는 점은 없다”라며, AI를 심리 치료에 사용할 때 주의할 것을 권고했다. 이어, “AI가 놓치는 치료 결과에도 영향을 미칠 수 있는 기준이 많다. 기법과 어조, 냉소주의 등 개인적 특성, 공통의 과거 이력, 몸짓, 표정과 같은 관계 변수 모두 결과 연구의 중요한 측면이다. 따라서 챗봇의 답변이 항상 똑같더라도 치료 결과는 달라질 수 있다”라고 분석했다.
AI가 미래 심리 상담 치료 분야에 중요한 역할을 할 수 있지만, 정신적 지지나 심리 치료를 위해 챗봇 이외에도 더 나은 대안을 찾아볼 수 있다. 베터헬프(BetterHelp), 헤드스페이스(Headspace), 컴(Calm)과 같은 앱을 사용하기 시작할 수도 있고, 혹은 사이콜로지 투데이(Psychology Today)의 파인드 어 테라피스트 툴(Find a Therapist tool)이나 젠케어(Zencare) 등 근처에 있는 심리 치료 전문가를 찾는 데 도움이 될 만한 자원을 활용할 수도 있다. 이 외에도 챗봇 대신 조언을 위해 활용할 수단을 아래와 같이 설명한다.
친구와 대화하기: 이번 주 가장 가까운 친구에게 전화한 적이 있는가? AI는 실제로 인간의 감정에 공감하지 못한다. 사용자도 인간의 기분이 나아지도록 AI 챗봇이 건네는 말이 실제로 마음에 와 닿지 않는다는 사실을 알 것이다. AI 챗봇으로는 신체적 존재도 재차 확인할 수 없을 것이다. 영혼이 없는 기계로는 심리 치료나 진정한 인간관계 모두 대체할 수 없다.
위험성 감수하기: 성공적인 관계를 위해 위험성을 감수하고, 실패를 두려워해서는 안 된다. 챗봇은 대화 도중 생성된 잠재적 실패와 마음의 실패를 이해하지 않는다. 또한, AI의 답변의 질은 사용자의 질문의 질에 달려있다. 모호한 답변을 하면, 모호한 반응이 이어진다. 따라서 관계와 관련이 있다. 만약, 타인과의 관계 취약성을 다루고자 한다면, 스스로 취약점을 드러내는 방법밖에 없다. 반대 개념은 자체 데이터베이스를 스캔한 뒤 직접 예측한 바를 일련의 단어로 작성하는 챗봇이 사용자의 질문에 답변할 것이라는 점을 거의 이해하지 못하는 것이다.
자신의 상황에 특별히 맞춘 조언 우선순위로 삼기: 무언가를 결정할 때는 다양한 출처에서 데이터를 수집하는 것이 유용하다. 특히, 위험성이 높은 감정적 문제를 다룰 때는 더 중요한 부분이다. 하지만 자신의 상황에 특별히 맞춘 조언을 우선순위로 삼는 것이 중요하다. 이는 AI가 작업하도록 설정된 부분이 아니다. AI 챗봇은 엄한 사랑이나 진지한 유머가 필요한 때를 인지하지 못한다. 사용자의 내면도 들여다보지 못한다. 누군가가 나를 진정으로 이해한 마지막 순간을 스스로 물어보아라. 그 답을 찾기 어렵다면, 스스로 질문한 바와 같은 것을 마지막으로 느꼈던 이를 물어보아라.
무언가를 알지 못한다는 점이나 실수를 인정하라: 챗봇은 항상 답변을 제시하도록 설계되었다. 하지만 인간관계에서는 AI 툴이 주로 저평가된 것을 알지 못한다는 사실을 인정해야 한다. 인간은 그 어느 때보다 실패와 깊이 소통한다. 재앙과 같은 우려를 형성하고, 인간이 항상 향하는 곳과 계획, 하고자 하는 행동이나 감정을 알고 있다는 가정 사항이 강화되었다. 관계의 완벽함은 매우 큰 피해를 일으킬 수 있다. 무언가 다른 행동을 원하더라도 실수는 대부분 더 깊은 관계를 위한 기회를 형성한다.
영감을 얻을 곳 찾기: 훌륭한 시 한 편을 읽어 보아라. 푸치니나 모차르트, 테일러 스위프트의 음악을 들어보아라. 조명을 끈 상태에서 조니 미첼(Joni Mitchell)의 앨범 블루(Blue) 전체를 재생하라. 호프만 부교수는 “간혹 동기가 더 높은 곳을 향하거나 창의적이면서도 삶과 관련이 없는 무언가를 위한 비법이 되기도 한다”라고 말했다. 스스로 동기를 얻도록 하라. 종종 영감을 느끼는 것이 무언가를 재차 확인하는 일이 된다. 예술은 스스로 느끼는 것보다 더 중요한 부분을 다시 떠올리도록 한다.
대다수 기술적 조언은 희망적인 약속과 위험성 모두 동반한다. 모바일 인터넷은 정보에 손쉽게 접근하도록 했으나 스마트폰에 지나치게 의존하는 문제점과 정보 유지가 줄어드는 상황을 낳기도 했다. 대규모 산업화 덕분에 더 저렴한 상품과 서비스를 생산하게 되었다. 하지만 기후변화 속도를 높이기도 했다. AI가 미래의 중요한 기능이 될 것이라는 점에는 의문을 제기하지 않는다. 현재 AI의 역량을 긍정적인 방향으로 최대한 활용하면서 인간관계라는 사회의 가장 기본적인 요소를 잃지 않을 방법을 둘러싼 질문이 남아있다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)