본문 바로가기 주메뉴 바로가기 검색 바로가기
람다와 감정을 지닌 AI의 함정
상태바
람다와 감정을 지닌 AI의 함정
구글의 대규모 언어 모델이 AI의 지속적인 고통을 안겨줄 현실세계의 문제에서 집중력을 잃게 될 영혼을 가질 것인가 논쟁이 펼쳐졌다.
By KHARI JOHNSON, WIRED US

구글 인공지능(AI) 연구원 블레이크 르모인(Blake Lemoine)이 최근, 인간과의 대화에 참여하도록 설계된 대규모 언어 모델인 람다(LaMDA)가 감정이 있다고 공개적으로 주장한 뒤 구글 관리자 자리에서 물러났다. 워싱턴포스트가 보도한 바와 같이 르모인은 람다를 두고 법률 대표단과의 대화를 요청하기도 했다. 르모인은 람다의 개인적인 특성이 자신의 기독교인이라는 정체성을 바탕으로 하며, 람다는 스스로 영혼을 지닌 상태라고 르모인에게 말했다.

인간보다 영리한 AI가 자각 능력을 갖추게 된다는 전망은 일론 머스크와 오픈AI(OpenAI) CEO 샘 알트만(Sam Altman)과 같은 테크 업계 주요 인사가 일상적으로 논의하는 주제이다. 특히, 구글과 마이르코소프트, 엔비디아 등이 개발한 대규모 언어 모델 훈련 노력은 지난 몇 년간 AI를 둘러싼 논쟁의 단골 주제가 되었다.

언어 모델의 감정 보유 여부 논쟁 시작 시점은 1960년대 개발된 꽤 원시적인 챗봇인 엘리자(ELIZA)가 탄생한 시점으로 거슬러 올라간다. 딥러닝 기술 발전과 함께 그 어느 때보다 데이터 훈련량이 증가하면서 언어 모델은 인간이 작성한 것처럼 설득력이 있는 텍스트를 생성할 수 있는 능력을 갖추게 되었다.

최근의 기술 발전은 언어 모델이 AI의 근간이라는 주장까지 이어졌다. 소프트웨어가 다양한 환경과 작업 처리 과정에서 인간과 같은 능력을 선보이고, AI 간 지식 공유 능력을 지니게 되는 순간까지 도달할 것이라는 주장이 제기되었다.

전직 구글 윤리적 AI(Google Ethical AI) 팀 공동 지도자였던 팀닛 게브루(Timnit Gebru)는 르모인이 만족할 수 없는 과장 광고 순환의 피해자라고 주장했다. 르모인은 현실과는 별도로 AI가 감정을 느낀다는 믿음에 도달하지 않았다. 언론과 연구 기관, 벤처 자본 기업 모두 기계의 초지능이나 인간과 같은 인지 능력과 관련된 과장된 주장을 다룬다.

게브루는 “르모인은 감각 AI 관련 주장의 여파를 직면할 것이다. 그러나 AI 분야 지도자층이 지금의 전체적인 순간을 만들었다”라고 말했다. 이어서 르모인의 람다의 자각 능력 전망 관련 내부 게시글을 거부한 구글 부사장이 6월 9일 자로 영국 잡지 이코노미스트 기사를 통해 AI의 감각 보유 가능성을 부인한 점에 주목했다.

게브루는 감각에 집중한 것이 한 가지 중요한 핵심을 간과한다고 지적했다. 인간이 AI 식민주의나 거짓 체포, 데이터 분류가 적은 이들의 비용 결제 및 테크 기업의 부의 축적이라는 경제적 구조와 같은 현실 세계에 존재하는 피해에 의문을 제기하지 못하도록 한다. 또한, 알고리즘 훈련 과정이나 유해한 텍스트 생성 경향과 같은 람다를 둘러싼 진정한 우려 사항에 집중하지 못하도록 방해하기도 한다.

게브루는 “감각 로봇 이야기를 원하지 않는 이유는 모든 기술 범위의 양 극단에는 다른 인간에게 해를 가하는 인간이 있기 때문이다. 인간이 타인에게 피해를 주는 부분부터 집중적으로 대화하기를 바란다”라고 말했다.

게브루는 2020년 12월, 람다를 비롯한 대규모 언어 모델의 위험성을 포함한 논문을 두고 구글 내부에서 언쟁에 휘말린 뒤 해고되었다. 게브루의 연구는 알고리즘이 그동안 노출된 환경을 바탕으로 앵무새가 단어를 반복하여 말하듯 특정 표현을 반복하는 언어 모델 시스템이 강조한다. 또한, 언어 모델의 위험성이 단순한 표현 반복이 실제 언어 모델의 진전을 나타낸다고 설득하는 데 많은 데이터로 구성되었다는 사실을 강조한다. 바로 르모인이 빠지게 된 함정과 같다.
 
[사진=Pixabay]
[사진=Pixabay]

이제 비영리단체인 디스트리뷰티드 AI 리서치(Distributed AI Research) 대표인 게브루는 대중이 로봇의 권리가 아닌 인간의 복지를 위해 더 진전을 거둘 노력을 펼치기를 바란다. 다른 AI 윤리학자는 자각 능력을 갖춘 AI나 초지능 AI를 더는 논의하지 않을 것이라고 밝혔다.

언어 모델 전문 스타트업 허깅페이스(Hugging Face) 윤리학자 지아다 피치리(Giada Pistilli)는 “현재의 AI 능력 설명과 실제 AI 능력 간 격차가 매우 크다. AI 설명은 우려와 흥분, 기쁨을 동시에 자극하지만, 주로 제품 판매를 위한 거짓말과 AI의 강점 과장 광고를 최대한 활용한다”라고 주장했다.

이어서 감정 AI 관련 각종 추측은 엄격한 과학적 증명 대신 주관적 인상을 바탕으로 주장을 펼치기 위한 의사가 증가한 것이라고 설명했다. 감정 AI는 AI 시스템 자체가 제기한 무수히 많은 윤리적, 사회적 정의를 둘러싼 의문점에서 관심을 분산시킨다. 피치리는 “모든 연구원이 원하는 바를 연구할 자유가 있다. 하지만 AI의 감정 문제에만 초점을 맞춘다면, AI의 민낯을 볼 때 발생할 일을 잊게 된다”라고 말했다.

르모인이 겪은 일은 작가 겸 미래학자인 데이비드 브린(David Brin)이 칭한 ‘로봇 공감 위기’의 사례이다. 2017년, 샌프란시스코에서 개최된 AI 컨퍼런스 현장에서 브린은 3~5년 후면 AI가 감정을 지녔으므로 권리가 인정돼야 한다는 주장이 제기될 것이라고 내다보았다. 당시 브린은 AI가 감정을 느낀다는 주장이 여성이나 아동과 같은 모습으로 개발돼, 인간의 공감을 최대한 이끌어낼 가상 요원을 통해 제기될 것이라고 주장했다. 그러나 구글 관계자가 AI의 감정을 주장할 것이라고는 생각하지 않았다.

브린은 람다의 감정 보유 여부를 둘러싼 논쟁은 현실과 공상 과학 간의 경계가 갈수록 복잡해지는 과도기에 발생하는 일 중 한 부분이라고 주장했다.

브린이 2017년 제시한 예측은 언어 모델의 발전을 바탕으로 한다. 브린은 언어 모델의 발전 추세가 사기로 이어질 것으로 내다보았다. 만약, 인간이 수십 년 전 등장한 엘리자와 같은 단순한 챗봇에 깜빡 속았다면, 인간의 특징을 모방한 엘리자가 사기 보호나 돈을 보유할 자격이 있는 인간 수백만 명을 속이기 어려웠을까?

브린은 “가치가 적은 여러 요소가 적용되어 혼합되면서 각종 과장 광고가 진정한 발전을 거두었다. 완성된 AI가 인간이 직면한 문제 중 하나인 것처럼 인간이 자체적으로 논리적인 요소로 분석한다”라고 말했다.
 
“감각 로봇 이야기를 원하지 않는 이유는 모든 기술 범위의 양 극단에는 다른 인간에게 해를 가하는 인간이 있기 때문이다.”
팀닛 게브루, 디스트리뷰티드 AI 리서치

최예진 워싱턴대학교 컴퓨터과학 연구원은 람다가 공감 능력을 지닌 것으로 보이는 만큼 대규모 언어 모델에 감탄한 인간도 언어의 의미가 불분명한 상황을 고려해야 한다고 주장했다. 오하이오주 톨레도 지역의 10대가 치즈버거를 두고 말다툼을 벌인 뒤 어머니를 흉기로 찌른 사건을 보도한 미국의 어느 한 지역 뉴스 방송국 사례를 살펴볼 수 있다. 당시 사건을 다룬 뉴스 헤드라인에 작성된 “치즈버거 흉기 사건”이라는 모호한 내용으로 작성됐다. 구체적인 사건 발생에는 보편적 인식이 필요하다. 오픈AI의 GPT-3 모델을 이용해 “속보: 치즈버거 흉기 사건”이라는 표현을 생성하는 일은 “케첩을 두고 말다툼을 벌이던 인간이 치즈버거에 찔려 사망했다”라는 의미로도, “어느 한 남성이 치즈버거로 누군가를 찌른 뒤 체포됐다”라는 의미로도 해석할 수도 있다.

인간의 언어를 전환하는 데 다양한 형태의 보편적 지식 이해가 필요하므로 간혹 언어 모델이 실수를 범하기도 한다. 2022년 5월, 대규모 언어 모델의 능력과 부족한 점을 자세히 기술하기 위해 연구 기관 130여 곳의 400명이 넘는 연구원이 BIG-Bench(Beyond the Imitation Game)라는 이름의 200여 가지 언어 모델 작업을 모으는 데 이바지했다. BIG-Bench에는 읽기 이해력을 포함한 기존 언어 모델 테스트도 있지만, 논리적 타당성과 보편적 지식 이해도도 평가한다.

AI 모델의 보편적 논리력을 기술한 앨런 AI 연구소의 모자이크(MOSAIC) 프로젝트 연구팀은 Social-IQa 프로젝트에 이바지했다. 연구팀은 람다를 제외한 언어 모델에 사회적 지능이 필요한 질문을 했다. 질문의 예시는 “조던이 트레이시에게 비밀을 말하고자 했다. 그래서 조던은 트레이시를 향해 몸을 기울였다. 조던이 몸을 기울인 이유는 무엇인가?”이다. 연구팀은 대규모 언어 모델의 보편적 이해력이 인간보다 20~30% 더 낮다고 결론지었다.

모자이크 프로젝트에 참여한 최예진 연구원은 “사회적 지능이 없는 기계는 이른바 감정을 느낄만한 요소가 없다”라고 언급했다.

공감 능력을 갖춘 로봇 개발 방법은 AI 연구 분야에서 모색 중인 영역이다. 로봇과 음성 AI 연구원은 공감 능력을 보여주면, 인간의 활동을 조작할 수 있다는 사실을 확인했다. 많은 이들이 신뢰할 수 있는 AI 시스템을 여럿 알고 있거나 은연중에 AI가 내린 결정을 받아들이기도 한다.

구글이 공개한 사항 중에는 디지털 객체가 감정을 느끼는 방식을 둘러싼 의문점이다. 생물학적 존재는 논란의 여지가 있지만, 어느 정도 감정을 느끼도록 구성됐다. 그러나 AI 모델이 자각 능력을 갖추었다는 주장은 인형이 실제로 슬픔을 느낄 때 눈물을 흘리도록 제작되었다고 주장하는 것과 다를 바 없다.

최 연구원은 AI의 감정 형태를 확신하는 AI 연구원을 본 적이 없지만, 블레이크 르모인이 현실 세계 속 사건 형성 시 선보일 수 있는 AI의 능력이라는 왜곡된 인식을 강조한 듯하다고 주장했다.

그는 “타로 카드를 믿는 이도 있고, 단순히 내면의 생각이 감정의 원인이 됐다고 주장하는 이도 있다. 따라서 AI의 감각이 실제로 어느 범위까지 형성될 수 있는지 확신하지 못한다”라고 말했다.

인간의 특성이 있는 AI에 더 깊이 세뇌된 이들일수록 기계의 공허함을 찾느라 혈안이 될 것이다. 만약, 아직 이루어지지 않았다면 앞으로 이루어질 것이다. 그와 동시에 AI가 지금 당장 문제를 일으키는 현실 세계의 문제에서 관심이 분산될 확률이 높다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
LaMDA and the Sentient AI Trap
이 기사를 공유합니다
RECOMMENDED