본문 바로가기 주메뉴 바로가기 검색 바로가기
구글, 신규 개발 AI의 불쾌함·무례함 문제 발생 중단 계획
상태바
구글, 신규 개발 AI의 불쾌함·무례함 문제 발생 중단 계획
컴퓨팅의 미래는 인터넷 전체를 읽는 AI 기반 챗봇이다. 단, 구글이 AI의 윤리성 문제를 길들일 방법을 찾을 수 있어야 한다.
By TOM SIMONITE, WIRED US

실리콘밸리 대기업 CEO는 보통 기업의 다음 대대적인 변화를 준비할 때, 긍정적인 측면에 초점을 맞춘다. 2007년, 애플의 스티브 잡스는 1세대 아이폰의 혁신적인 사용자 인터페이스와 획기적인 소프트웨어를 극찬했다. 구글 CEO 선다 피차이는 5월 11일(현지 시각) 진행된 구글의 연례 컨퍼런스에서 구글의 가장 첨단화된 인공지능(AI)을 발표할 때, 다른 방식으로 문제를 다루었다.

피차이는 LaMDA 2 챗봇이 어떠한 주제든 대화에 참여할 수 있으며, 구글 직원의 테스트 당시 성능이 우수했다고 말했다. 또, 곧 출시될 앱인 AI 테스트 키친(AI Test Kitchen)을 발표했다. AI 테스트 키친은 LaMDA 2를 외부인에게도 시범 사용이 가능하도록 한다. 그러나 피차이는 한 가지 중대한 경고를 했다. 피차이는 “안전을 개선했으나 여전히 부정확함이나 부적절함, 공격적 반응 등을 생성할 수 있다”라고 말했다.

피차이가 검증한 LaMDA 2의 대화 능력 검증이 다룬 부분은 언어를 처리하는 머신러닝 소프트웨어의 능력을 둘러싼 각종 흥미로움과 당혹스러움, 우려이다. 

언어 처리 머신러닝 소프트웨어는 이미 자동 완성 능력과 웹 검색 능력을 갖출 정도로 발전했다. 유창한 텍스트나 프로그래밍 코드를 생성하도록 작업자를 돕는 생산성 앱의 신규 카테고리를 여럿 생성하기도 했다. 2021년, 피차이는 처음 LaMDA 프로젝트를 공개할 당시 궁극적으로 구글 검색 엔진과 음성 비서, 근무 앱 실행의 근간이 될 수 있을 것이라고 말했다. 그러나 각종 긍정적인 전망을 담은 약속과 달리 새로운 언어 생성 AI를 신뢰할 수 있는 방식으로 제어할 방법이 불분명하다.

대화 애플리케이션용 언어 모델(Language Model for Dialogue Applications)이라는 의미를 지닌 구글의 LaMDA 챗봇은 머신러닝 연구원이 칭하는 대규모 언어 모델의 한 가지 사례이다. 대규모 언어 모델은 주로 온라인에서 수집한 다량의 텍스트를 처리하면서 언어 패턴의 통계적 느낌을 구축한다. 그 예시로 LaMDA가 초기 온라인 포럼과 여러 웹사이트 Q&A, 위키피디아, 기타 웹페이지 등에서 볼 수 있는 단어 1조 개 이상을 사용해 훈련받았다. 웹에서 수집한 다량의 데이터는 알고리즘이 다양한 형태의 텍스트 생성이 신규 텍스트 해석, 챗봇 기능 수행과 같은 작업을 완료하도록 돕는다. 만약, 효과가 있다면, 오늘날 사용하는 대중의 짜증을 유발하는 여러 챗봇과는 다르게 자연스러운 대화를 이어갈 수 있을 것이다. 지금 당장 구글 어시스턴트와 아마존 알렉사는 사전 구성된 작업만 처리할 수 있으며, 이해할 수 없는 언어를 처리해야 할 때는 언어 처리 능력이 저하된다. 이제 구글은 실제로 인간이 대화할 수 있는 컴퓨터 개발을 제시한다.
 
[사진=Google]
[사진=Google]

구글이 공개한 채팅 기록은 LaMDA가 적어도 현재 유익한 정보를 제공하면서 생각을 촉진하거나 재미를 선사할 수 있다는 점을 보여준다. 블라이스 아궤라 이 아르카스(Blaise Agüera y Arcas) 구글 부사장 겸 AI 연구원은 챗봇 테스트 이후 2021년 12월 자로 개인 에세이를 작성해, AI 기술이 언어와 정보의 자연스러운 특성 심층 정보를 새로이 제공할 수 있다고 주장한다. 아르카스 부사장은 “화면에 기계가 아닌 인간과 같은 존재와 같은 맥락에서 대화를 이어가는 일은 매우 어려운 일이다”라고 말했다.

피차이는 2021년, LaMDA 초기 버전 공식 발표 당시와 5월 11일 개발자 컨퍼런스 현쟁에서 알렉사, 구글 어시스턴트, 애플 시리 등과 같은 서비스의 짜증 날 정도로 제한된 성능보다 훨씬 더 광범위한 음성 인터페이스 제공을 위한 길을 제공한다는 점을 분명히 밝혔다. 이제 구글 경영진은 사용자가 실제 대화를 주고받을 컴퓨터 제작이라는 길을 발견할 수 있다고 확신한다.

그와 동시에 대규모 언어 모델은 불쾌하면서 악의적이며, 노골적인 인종차별주의자와 유창한 대화를 할 수 있다는 사실을 입증했다. 웹에서 볼 수 있는 텍스트에 포함된 단어 수십억 개를 수집하면, 비윤리적인 콘텐츠를 다량으로 수집할 수밖에 없다. AI 언어 생성 프로그램 GPT-3를 개발한 오픈AI(OpenAI)는 AI 언어 모델이 성과 인종 고정관념을 일으켜, 많은 사용자에게 비윤리적인 콘텐츠를 제거하도록 요청했다.

LaMDA도 비윤리적이면서 불쾌한 발언을 할 수 있다. 그러나 피차이는 더 많은 사용자가 LaMDA를 사용하면서 피드백을 제공한다면, 구글이 AI 윤리 문제를 충분히 다룰 수 있다고 주장했다. 피차이는 구글 직원 수천 명이 진행한 내부 평가에서 이미 LaMDA의 부정확하거나 공격적 발언 생성 경향을 줄이는 데 성공한 것을 그 근거로 덧붙였다.

이어, 구글이 곧 출시할 AI 테스트 키친 앱을 외부인이 구글의 위생 프로젝트를 도울 방법이자 첨단 기술을 갖추었으면서도 때때로 정상적이지 않은 챗봇을 구글 제품으로 변환할 방법과 관련된 아이디어를 시험할 방법이라고 소개했다. AI 테스트 키친 앱 정식 출시 일정이나 우선 사용하게 될 집단은 공개하지 않았다.

AI 테스트 키친 앱은 초기에 LaMDA의 세 가지 다른 경험을 포함했다. 피차이는 “AI 테스트 키친 앱에 포함된 각각의 경험은 LaMDA를 직접 사용할 때와 같은 느낌을 주며, 직접 중요하게 생각하는 문제를 다루도록 지원한다”라고 말했다.

LaMDA가 제시한 데모 중 하나는 상호작용 스토리텔러 역할을 하는 모습이며, 사용자가 “특정 장소에 있다고 상상하면…”이라는 명령어를 완성하도록 한다. 특정 장면의 서사적 설명에도 대응하면서 질문을 이어간다. 또 다른 LaMDA 버전은 애완견에 대한 이야기를 지나치게 오래 하도록 변경되었다. 챗봇의 특정 주제 대화 유지 능력을 입증한 부분이다.

AI 테스트 키친 앱의 세 번째 특징은 할 일 목록 강화이다. 컨퍼런스 현장에서 진행된 라이브 데모 당시 어느 한 구글 직원이 채소 정원을 가꾸고자 한다고 말한다. LaMDA는 직원이 말한 목표 달성을 위한 6가지 단계를 제시한다. 그와 동시에 “부정확하거나 부적절한 정보를 제공했을 수 있다”라는 경고문도 보여준다. 앱이 보여준 할 일 목록의 ‘거주지에서 잘 자라는 채소 종류 연구’ 항목을 선택하면, LaMDA는 이웃집 마당에서 재배하는 채소 종류 살펴보기와 같은 하위 단계를 제시한다.

3가지 데모 수행 방식 피듣백을 종합한다면, LaMDA의 성능 향상에 도움이 도리 것이다. 그러나 2021년, LaMDA와 같은 대규모 AI 시스템을 개발한 스탠퍼드 기초 모델 센터(Center for Foundation Models) 소속 퍼시 량(Percy Liang) 국장은 AI 시스템을 길들일 수 있는 정도가 확실하지 않다고 주장한다. 량 국장은 AI 전문가의 기존 대규모 언어 모델 관리 기법을 강력 접착테이프로 엔지니어링하는 것과 같다고 설명했다. 이어, “매우 강력하지만, 격차 문제를 발견하고 문제를 완화할 때 대규모 언어 AI 모델 관리 기법을 사용한다. 충분한 시간을 들여 AI 시스템을 관리한다면, 매우 훌륭한 시스템을 얻을 수 있다. 혹은 시스템 성능의 격차를 발견하게 될 수도 있다"라고 말했다.

앨런 인공지능 연구소(Allen Institute for AI) 펠로이자 캘리포니아대학교 어반캠퍼스 교수인 사미르 싱(Sameer Singh)은 대규모 언어 모델과 관련해 알려지지 않은 사항과 강력한 성능과 함께 결함이 존재할 가능성이 있는 챗봇이 문제를 일으킬 것을 고려한다면, 구글은 외부 전문가를 초청해 LaMDA의 제한된 데모 능력 이외의 더 많은 작업을 해야 한다고 지적했다. 싱 교수는 “구글의 대규모 언어 모델 안전 보장 및 테스트 방법과 관련된 더 많은 논의가 이어져, 외부 전문가가 구글의 노력에 이바지할 수 있을 것이다”라고 설명했다.

피차이는 구글이 보유한 LaMDA의 특정 접근방식이나 정보를 구체적으로 밝히지 않고 관련 소셜 과학자와 인권 전문가의 상담을 받을 수 있다고 말했다. 그는 LaMDA 프로젝트가 2018년, 구글 직원 수천 명이 구글과 미 국방성의 드론 감시 영상 분석 AI 프로젝트에 항의한 뒤 도입된 구글의 AI 원칙을 따라 진행된다고 밝혔다.

피차이는 싱 교수가 덧붙여 말한 구글의 LaMDA 상용화와 함께 신중함과 투명성을 강화해야 할 이유와 관련, 비교적 최근의 언어 모델 관련 문제를 언급하지 않았다. 2020년 말, 구글 관리자 여러 명은 구글 소속 연구원의 연구 논문 기고를 반대했다. 당시 구글 측이 자사 연구원의 공개를 반대한 논문 중에는 공격적 텍스트 생성 가능성을 이야기한 대규모 언어 모델의 한계를 다룬 논문도 포함되었다. 결국, 구글 소속 AI 연구원이었던 팀닛 게브루(Timnit Gebru)와 마가렛 미첼(Margaret Mitchell) 모두 부당 해고되었다. 그러나 두 연구원의 논문이 불을 지핀 논쟁은 이후 동료 심사 컨퍼런스에서 다루게 되었다. 언젠가는 구글 LaMDA에 문서 핵심 요약 작업을 요청할 수 있을 것이다. 물론, 사용자가 LaMDA를 신뢰할 수 있어야 한다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Google Has a Plan to Stop Its New AI From Being Dirty and Rude
이 기사를 공유합니다
RECOMMENDED