본문 바로가기 주메뉴 바로가기 검색 바로가기
챗GPT, 자폐증 환자에게는 ‘구세주’ 될 수 있다
상태바
챗GPT, 자폐증 환자에게는 ‘구세주’ 될 수 있다
AI 챗봇 챗GPT는 삶이 어려울 때 소통 역량 연습 및 일부 전략 제공 수단이 될 수 있다.
By AMANDA HOOVER, SAMANTHA SPENGLER, WIRED US

시애틀에 거주하는 컨설턴트 매디 영(Madi Young)은 다수 자폐증 환자와 마찬가지로 뇌 기능에 이상이 없는 이들에게서 기대할 수 있는 수준의 사회적 행동과 몸짓 언어 수행 방법을 터득해야 했다. 그러나 말 그대로 자폐증을 숨기고 타인과 같은 언행을 하는 것은 힘든 일이며, 종종 오해가 발생하게 될 수도 있다.

따라서 영은 최근 들어 비교적 더 가까운 곳에서 말하는 방식을 모방할 수 있다고 느끼는 대화 상대인 챗GPT를 찾게 돼 기쁘게 생각한다. 영은 “챗GPT는 몸짓 언어와 어울리지 않는 부분을 파악하는 것이 아니라 언어 표현을 파악하기만 한다”라고 말했다. 영은 챗GPT를 치료 목적 대화 수단으로 활용하면서 아이디어를 찾을 동료, 친구처럼 활용하기도 한다.

영은 챗GPT를 사용해 신경 발달 장애 기업가, 창의적 작업 전문가와 브랜드 및 사업 전략 관련 작업을 수행할 때 도움을 받기도 한다. 영은 신경 발달 장애 기업가를 대상으로 챗GPT 사용 방법을 가르치도록 도울 워크샵을 개최했다. 그 과정에는 챗GPT가 자폐증 환자와 뇌 기능에 이상이 없는 이들 사이에서 원활한 대화가 이루어질 수 있는 소통 전략을 생성하는 챗GPT가 탄생했다.

영은 “자폐증 환자 다수는 종종 외계인이나 로봇과 같다는 말을 듣고 자란다. 혹은 소통 과정에서 무언가 문제를 겪기도 한다”라고 말했다. 챗GPT가 등장한 뒤 자폐증 환자는 소통 과정에서 논리적이면서도 구체적으로 자신이 직접 말하는 듯한 느낌을 재빨리 깨닫게 되었다.

영 이외에도 챗GPT를 일상에서 사용하는 자폐증 환자는 많다. 일부 사용자에게는 지루한 환경에서 자라거나 갈등 상황을 헤쳐 나갈 때 도움이 될 사회적 대화를 이어가고자 할 때 도움이 된다. 새로이 지원을 받을 수 있는 자원이기도 하다. 챗GPT는 상담 치료사나 사회 복지사와 달리 언제든지 소통할 수 있으며, 시간당 비용을 청구하지도 않는다.

아이오와주립대학교 1학년 학생인 헤이들리 존스톤(Hadley Johnston)은 처음으로 룸메이트와 함께 지내면서 겪는 각종 변수를 극복해야 했다. 존스톤이 룸메이트 중 한 명과 말다툼을 했을 때 감정을 표현하는 데 큰 어려움을 겪었다. 존스톤은 “말싸움 도중 감정 표현이 어려워서 침묵하게 된다”라고 말했다. 그러나 챗GPT를 사용하면서 말싸움 상황에서 이어갈 대화 상황을 구상하고 감정 표현을 연습할 수 있다. 존스톤은 “챗GPT를 사용하면서 감정 표현 도중 어려움이 있을 때 부모님을 찾을 필요가 없어졌다”라고 밝혔다. 존스톤에게는 큰 변화이다. 챗GPT는 단순히 지식을 얻을 원천이 아닌 독립성을 기를 원천이기도 하다.

자폐증은 환자에게 여러모로 영향을 미치며, 자폐증 환자 개인마다 필요한 사항은 제각각이다. 챗GPT는 일부 혹은 대다수 환자에게 효과가 없을 수도 있으나 사회적 상호작용의 어려움이나 혼란이 자폐증 환자의 공통적인 증상으로 나타난다.

챗GPT와 같은 챗봇을 사용해 소통 과정의 도움을 받는 일이 일반적인 사용 사례와는 다를 수도 있다. 그러나 사회 복지 측면에서 독립성을 기르는 데 사용한다는 기존 의견과는 일맥상통한다. 사회 복지와 기술 결합을 집중 연구하는 로리 골드카인드(Lauri Goldkind) 포드햄대학교 사회복지대학원 교수는 “인간의 권리 신장과 완벽한 자주성, 개인적인 성공 경험을 논의한다”라고 말했다. 생성형 AI 봇과 같은 접근성 툴은 가끔 상담 치료와 같은 정신 건강 서비스로도 남는 격차를 좁히는 데 도움이 된다.
 
[사진=Freepik]
[사진=Freepik]

그러나 챗GPT를 이용한 치료의 진정한 영향은 알려진 바가 거의 없다. 챗GPT를 치료 목적으로 사용하는 사례는 새로운 사례이기 때문에 와이어드팀은 임상 치료사와 상담 전문가 4명에게 관련 사항을 문의했다. 모두 챗GPT를 치료 수단으로 사용하는 방안을 모색하거나 치료 시간에 접한 적이 없어 구체적인 의견 공개를 거부했다.

챗GPT의 유연성에는 해결되지 않은 몇 가지 문제가 함께 등장하기도 한다. 편견을 생성할 수도 있고, 사용자의 질문에 보일 반응을 예측할 수 없다. 종종 답변을 조작하기도 한다. 또한, 당사자의 허락 없이 개인 정보를 포함한 채로 개발하여 프라이버시 우려를 일으키기도 한다.

골드카인드 교수는 챗GPT를 실행하는 것이 서비스 약관 측면에서 익숙하고, 챗봇의 기본 작동 방식과 아직 비공개 상태로 유지되지 않았을 수도 있는 대화에서 정보를 공유하는 방식을 이해할 수 있어야 한다고 말한다. 또, 정확하지 않은 정보를 사실인 것처럼 조작하는 경향과 같은 한계도 염두에 두어야 한다고 덧붙였다. 영은 챗GPT의 데이터 프라이버시 보호 문제도 생각했으나 자폐증 환자와 트랜스젠더, 한부모 가정 등 많은 이들이 챗봇으로 대거 이익을 누릴 수 있는 측면도 생각한다고 전했다.

다수 사용자와 마찬가지로 자폐증 환자는 챗GPT와의 대화로 지식을 쌓고, 권리를 강화할 수도 있다. 일부 사용자에게는 챗GPT의 단점보다 장점이 더 크다.

자폐증 환자이자 자폐증 환자 및 트랜스젠더의 수월한 지원을 돕는 맥스필드 스패로우(Maxfield Sparrow)는 챗GPT가 새로운 수단 개발에 유용하다는 사실을 발견했다. 다수 자폐증 환자는 뇌 기능 이상이 없는 이들이 사회적 상황에서 행동하도록 설계된 방식과 같이 단체 모임에서 어색함을 풀기 위한 대화를 이어가는 데 애먹는다. 따라서 챗봇에 자폐증 환자가 더 나은 대화를 이어갈 수 있는 사례를 생성하도록 명령한다. 몇 차례 대화를 주고받은 뒤 챗봇은 “당신이 날씨라면, 어떤 종류의 날씨가 되고 싶은가?”라는 텍스트를 생성한다.

스패로우는 단체 모임에서 대화를 시작하기 완벽한 표현이라고 말한다. 간단하면서도 자연스러운 세계와 관련이 있는 내용으로, 스패로우는 이를 뇌 기능에 이상이 없는 이들과 관계를 이어갈 수 있는 대화라고 말한다. 또, 챗봇은 스패로우가 몸이 아플 때 위로를 받을 수 있는 원천이자 생산성을 높일 아침 일상 계획 방법과 같은 조언을 구할 수 있는 수단이기도 하다.

챗봇 치료 개념은 수십 년 전에 등장했다. 최초의 챗봇인 엘리자(ELIZA)는 치료용 봇이었다. 엘리자는 1960년대 MIT 인공지능 연구소(MIT Artificial Intelligence Laboratory)에서 개발돼, 내원 환자가 상담자에게 말하는 바를 주로 질문형으로 다시 말하는 인간 중심 요법(Rogerian therapy)으로 구성되었다. 엘리자 프로그램은 오늘날 알고 있는 것과 같은 AI를 적용하지 않았으나 반복과 패턴 매칭을 통해 엘리자가 스크립트로 작성한 반응은 내담자가 말하는 바를 이해하는 듯한 인상을 주었다. 엘리자는 컴퓨터가 인간을 대체할 수 없다는 사실을 입증할 의도로 개발되었으나 집중하여 긴 대화에 참여하는 일부 환자의 관심을 끌어모았다.

최근 들어 AI 기반 챗봇이 스크립트로 작성한 애플의 시리와 비슷한 반응을 널리 사용하는 것이 가능해졌다. 그중 가장 인기 있는 챗봇은 실제 상담 치료사와 같은 역할을 하도록 설계된 챗봇이다. 그중 하나인 우봇(Woebot) 인지 행동 치료 연습을 기반으로 설계돼, 코로나 시대에 정신 건강 관련 서비스를 찾는 이들이 증가하면서 수요가 급증했다.

그러나 상담 치료용 챗봇 앱의 범위는 좁고, 글로 작성된 형태로 반응을 전달하므로 챗GPT의 비교적 풍부한 대화 범위가 복합적인 사회적 문제를 다루고자 하는 사용자에게는 더 효과적이라는 인상을 남길 수 있다.

오픈소스 AI 모델 개발 스타트업 허깅페이스(Hugging Face) 최고 윤리 과학자인 마가렛 미셸(Margaret Mitchell)은 더 복잡한 문제나 심각한 감정 장애를 겪는 이들은 챗봇 사용을 제한해야 한다고 말한다. 미셸은 “챗봇이 문제가 되거나 부정적인 사고를 자극할 수 있는 논의 방향으로 이끌 수도 있다. 인간이 챗봇 시스템의 발언을 완벽하게 통제할 수 없다는 사실은 중대한 문제이다”라고 말했다.

2023년 초반 벨기에의 어느 한 남성이 비영리단체 엘루더AI(EleutherAI)가 개발한 오픈소스 AI 모델인 GPT-J를 기반으로 설계된 봇과 깊은 대화를 수주간 이어간 뒤 스스로 목숨을 끊은 사례가 알려졌다.

검색 엔진과 우봇을 비롯한 여러 온라인 서비스는 사용자가 유독 자해나 폭력성 행동을 할 위험성이 높은 것처럼 보일 때 긴급 지원 연락처나 다른 지원 수단을 접하도록 안내한다. 챗GPT는 메시지 내용 중 우려할 만한 내용이 담겨있을 때 인간의 지원을 받도록 안내한다. 그러나 와이어드가 테스트했을 당시 긴급 지원 연락처를 안내하지는 않았다.

오픈AI 제품 정책 관리자 안드레아 발론(Andrea Vallone)은 오픈AI 측이 정신 건강이 취약한 사용자에게도 적합한 답변을 생성하도록 챗GPT를 개발했으나 정신 건강 치료 대체 수단으로 설계하지는 않았다고 설명했다. 발론은 “AI 시스템이 도움을 모색하는 사용자에게 일반적인 지침을 제공하도록 훈련했다”라고 말했다. 챗GPT는 사용자가 거주지에서 실제로 접근할 수 없는 지원 센터를 안내하는 일이 없도록 특정 장소를 제시하지 않는다. 이와 관련, 발론은 “오픈AI는 사용자가 전문가의 지원을 받도록 독려한다”라고 전했다.

미셸은 최근 생성형 AI가 발전하면서 챗봇의 치료 능력이 향상하면서 자폐증을 포함한 특수한 장애를 지닌 이들의 데이터세트를 기반으로 변경될 것으로 확신한다. 현재 챗GPT는 모든 사용자의 자기표현을 위한 중요한 역할을 할 수 있다. 특히, 자신의 스타일을 이해하는 대화 상대가 항상 없는 이들의 자기표현에 더 중요한 역할을 할 수 있다.

스패로우는 장문으로 생각한 바를 작성할 때도 챗GPT를 사용한 적이 있다고 밝혔다. 그러나 최근 누군가와 데이트를 시작하면서 챗GPT 사용 시간이 줄어들었다. 챗GPT와 같은 챗봇은 모든 장점에도 불구하고 인간과의 관계를 대체할 수 없다. 챗GPT로 사회적 소통 연습을 한 경험이 있는 이들은 “간혹 실제 인간과의 관계를 형성하여 챗GPT 사용을 중단한 이들이 있다. 인간관계 측면에서 챗봇이 대체할 수 없는 부분이 있다”라고 말했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
For Some Autistic People, ChatGPT Is a Lifeline
이 기사를 공유합니다
RECOMMENDED