본문 바로가기 주메뉴 바로가기 검색 바로가기
AI 논문, 구글 연구원의 해고 원인이 된 배경은?
상태바
AI 논문, 구글 연구원의 해고 원인이 된 배경은?
팀닛 게브루는 AI 모델이 언어를 이해하도록 훈련하기 위한 과거의 연구를 조사하는 논문 저자 7명 중 한 명이었다.
By TOM SIMONITE, WIRED US

올해 초, 구글 인공지능(AI) 연구원 팀닛 게브루(Timnit Gebru)가 워싱턴대학교 에밀리 벤더(Emily Bender) 교수에게 트위터 메시지를 보냈다. 게브루는 벤더 교수에게 문자를 처리하는 AI가 최근 발전하면서 제기된 윤리성을 둘러싼 의문 사항과 관련된 논문을 작성한 적이 있는지 문의했다. 벤더 교수는 AI 윤리성 관련 논문을 작성한 적이 없다. 그러나 벤더 교수와 게브루는 온라인에서 발견한 편견을 지닌 언어를 복제하는 것과 같은 AI의 한계라는 주제의 대화에 빠져들었다.

벤더 교수는 게브루와 트위터 다이렉트 메시지로 주고받은 논의가 흥미롭다고 느껴, AI의 윤리성과 관련된 내용을 논문으로 작성하는 것을 제안했다. 벤더 교수는 “게브루와의 대화가 다음 단계로 나아갈 수 있도록 촉진하는 역할을 하기를 원했다. 게브루와 AI 윤리성이라는 주제로 나눈 대화가 흥미롭고 성공적이라고 느꼈다. 그리고, 한 걸음 물러나서 AI의 잠재적인 위험과 우리가 할 수 있는 일을 생각하도록 했다”라고 말했다. AI 윤리성을 다룬 논문 초안은 구글 소속 연구원과 학계 전문가로 구성된 공동 저자와 함께 한 달 만에 작성됐다. 그리고 10월, 학술 컨퍼런스에 논문을 제출했다. 해당 논문은 순식간에 AI 연구에서 가장 악명높은 연구 논문이 됐다.

지난주, 게브루는 매니저에게서 논문 제출을 철회하거나 저자 명단에서의 이름을 삭제하라는 요청을 받은 뒤 구글에서 해고됐다고 밝혔다. 구글의 AI 총괄은 게브루의 논문이 “구글의 논문 출판 기준을 충족하지 않았다”라고 주장했다. 그 후, 구글 직원 2,200여 명이 구글이 게브루의 논문 초안을 다루는 과정의 투명성을 강화하도록 요청하는 공개서한에 서명했다. 12월 5일(현지 시각), 게브루의 매니저이자 구글 AI 연구원인 새미 벤지오(Samy Bengio)는 페이스북에 경악했다고 밝히며, “팀닛의 편에 선다”라는 글을 게재했다. 구글 소속이 아닌 다른 AI 연구원들도 게브루가 받은 대우를 두고 구글을 공개적으로 질책했다.

AI 연구원의 집단 분노는 게브루의 갑작스러운 해고의 원인이 된 논문에 특이한 힘의 분위기를 주었다. 게브루의 논문은 금서와 같은 형태로 AI 연구원들 사이에서 돌아다니고 있다. 그러나 와이어드가 총 12페이지로 이루어진 게브루의 논문에서 발견한 가장 놀라운 부분은 논란의 여지가 전혀 없다는 사실이다. 게브루의 논문은 구글이나 구글의 AI를 비판하지 않는다. 만약, 게브루가 구글에서 해당 논문을 출판했더라도 구글의 명성을 훼손하지 않았을 것으로 보인다.

“게브루의 논문에서 AI 연구소의 분노를 유발할 수 있는 부분을 찾기 어렵다. 또, 논문이 AI 언어 모델 연구원들의 실직을 유발한다는 점을 찾아보기 힘든 점은 두말할 것도 없다”
줄리엔 코네바이스, 유니버시티 칼리지 런던 명예 부교수

게브루의 논문은 언어를 분석하고 생성하는 AI 시스템의 한계와 관련된 과거의 연구를 조사한다. 새로운 실험이 등장하지 않는다. 논문 저자들은 AI 언어 모델이 막대한 양의 전기를 소모하며, 온라인상의 글자에서 발견된 동의할 수 없는 편견을 따라 한다. 또한, AI 연구원이 더 나은 방식으로 시스템 생성에 사용한 데이터 문서화하는 등 AI에 더욱 신중한 태도를 지닐 수 있다는 사실을 제시한다.

게브루의 논문은 현재 구글 검색엔진에 배포된 부분 등 구글이 AI에 기여한 부분을 인용했지만, 특별한 비판적인 의견을 택해 주목하지 않는다. 논문에서 인용한 연구 중, AI 언어 모델에 편견이 포함됐다는 증거를 보여주는 연구는 올해 초, 구글 연구진이 게재한 논문이다.
 
[사진=Freepik]
[사진=Freepik]

게브루의 논문 초안을 읽은 유니버시티 칼리지 런던의 명예 부교수 줄리엔 코네바이스(Julien Cornebise)는 “해당 논문은 매우 확고하며, 제대로 연구가 된 논문이다. 게브루의 논문에서 AI 연구소의 분노를 유발할 수 있는 부분을 찾기 어렵다. 또, 논문이 AI 언어 모델 연구원들의 실직을 유발한다는 점을 찾아보기 힘든 점은 두말할 것도 없다”라고 설명했다.

구글의 반응은 구글 지도층이 게브루나 다른 연구원이 깨달은 윤리적 비판을 느끼는 데 더 취약하다는 증거가 될 수 있다. 게브루의 해고는 논문의 논란 그 이상을 나타낸다. 구글은 게브루의 논문과 관련된 질문에 답변하지 않았다. 12월 7일(현지 시각), 구글의 AI 윤리 연구팀 소속 연구원들이 블로그를 통해 구글의 내부 연구 검토 과정에 참여한 매니저들이 게브루에게 등을 돌렸다고 밝혔다. 지난주, 게브루는 자신이 구글의 다양성 프로그램을 비판해서 해고됐을 가능성을 제기했다. 또, 최근 받은 그룹 이메일에서 구글의 다양성 프로그램 비판을 중단해야 한다는 내용이 담겨있었다고 밝혔다.

논란의 원인이 된 게브루의 논문 초안은 “임의로 확산되는 앵무새의 위험성: AI 언어 모델이 대대적으로 성장할 수 있을까?”라는 제목으로 작성됐다. (제목에 작성된 물음표 뒤에는 앵무새 이모지가 포함됐다) AI 연구의 가장 뛰어난 통찰력이 있는 주제의 장단점을 신중하게 판단한다.

구글과 같은 테크 기업은 2010년대, 연구원들이 머신러닝으로 대화와 이미지 인식을 더 정확하게 만들 수 있다는 사실을 발견하면서 AI에 집중적으로 투자해왔다. 이러한 알고리즘은 처리 중인 업무 성과를 살짝 수정하고, 글로 기록된 대화를 읽는다. 이 과정에서 라벨과 함께 짧은 예시가 추가된 데이터를 이해한다. 그리고, 딥러닝이라는 방식은 더욱더 넓은 범위의 예시 데이터 수집과 뛰어난 성능을 자랑하는 컴퓨터 등으로 여러 학습 알고리즘을 결합하면서 놀라울 정도의 새로운 결과를 만든다.

지난 몇 년간 AI 연구원들은 언어에 대한 머신러닝의 규모를 매우 크게 만들 방법을 찾아냈다. 질문에 답변하거나 머신러닝 알고리즘이 웹에서 복사한 수십억 가지 단어를 이해하면서 텍스트를 생성하는 것과 같은 작업을 보여주면서 큰 진전을 거두었다. 이러한 시스템은 언어 통계 패턴에서 운영된다. 알고리즘이 인간과 같은 방법으로 세계를 이해하는 것이 아니기 때문에 여전히 인간의 눈에는 분명하게 보이는 중대한 실수를 범할 수 있다. 그러나 알고리즘은 스스로 통계를 처리해, 질문에 답변하거나 유동적으로 새로운 글자를 생성하는 등 인상적인 능력을 선보일 수 있다.

알고리즘의 통계 시스템과 같은 유형의 시스템 중, 구글의 버트(BERT)는 구글 검색 엔진의 긴 질문 처리 능력을 향상하는 데 활용된다. 마이크로소프트는 독자적인 연구소 오픈AI(OpenAI)에서 GPT-3이라는 시스템 사용 권한을 취득할 계획이라고 밝혔다. 여러 기업이 메일이나 광고 카피 문구를 작성할 때 활용하는 시스템이다.

알고리즘 시스템 발전이 진전을 거두자, 다른 연구원들이 AI 언어 모델의 한계와 사회적으로 미칠 수 있는 효과에 의문을 제기하게 됐다. 게브루와 벤더 교수, 그리고 논문의 다른 공동 저자들은 AI 언어 모델의 한계와 사회적 영향을 찾기 위한 작업을 시작해, AI 연구 업계의 대응책을 제시했다.

게브루를 포함한 논문 저자들은 대규모 언어 모델 훈련이 건설 현장부터 쓰레기 처리장에서 차량이 소비하는 것만큼 많은 양의 에너지를 소비한다는 사실을 계산한 과거의 연구와 AI가 온라인 음모론자를 흉내 낼 수 있다는 사실을 보여준 프로젝트를 언급했다.

논문에서 인용한 또 다른 연구는 올해 초 구글 연구원들이 구글의 자체 언어 모델 버트가 지닌 한계를 입증한 논문이다. 게브루는 버트 연구에 참여하지 않았으며, 버트 연구팀은 버트가 뇌성마비 환자나 시각장애인 등 장애인들을 부정적인 언어로 지칭하는 경향을 지니고 있다는 점을 보여주었다. 해당 논문의 저자 전원 현재까지 구글 소속으로 근무 중이다.

게브루의 갑작스러운 해고의 원인이 된 논문에서 게브루를 비롯한 공동 저자들은 AI 개발자에게 언어 프로젝트 수행 시 더 신중하게 연구할 것을 촉구한다. AI 개발자에게 AI 언어 모델을 생성하는 데 사용된 텍스트와 AI 모델을 생성한 시스템의 한계를 더 많이 문서화할 것을 권한다. 또한, AI 시스템을 정확도 및 취약점에 따라 기록한 데이터로 분류한다는 최근의 아이디어도 언급했다. 게브루는 구글에 근무할 당시 다른 연구원들과 함께 모델 보고를 위한 ‘모델 카드(Model Cards)’를 제작했다. 이후, 구글의 클라우드 부서에서 모델 카드를 채택했다. 게브루와 공동 저자들은 논문에서 AI 개발자의 관점뿐만 아니라 AI 시스템의 결과나 판단 대상이 될 수 있는 AI 업계와 관련이 없는 이들도 고려해 언어 시스템을 설계할 것을 요청한다.

구글의 연구 총괄 제프 딘(Jeff Dean)은 공식 발표를 통해 지난주, 게브루가 해고된 사유가 형편없는 논문이라고 주장했다. 그는 논문에서 더 효율적인 언어 모델을 만들 방법을 인용하지 못해, AI 언어 모델의 편견을 완화할 방법을 제시하지 못했다고 말했다.

벤더 교수는 논문 저자들이 총 128가지 자료를 인용했으며, 추후 참고 문헌을 추가할 수 있다고 밝혔다. 참고 문헌 추가는 학술 논문 게재 과정에서 흔한 일이며, 논문 게재 철회 사유가 되는 경우는 드물다. 벤더 교수와 다른 AI 연구원들은 딘의 주장에서 불구하고, AI 업계는 AI 언어 모델이 지닌 편견을 신뢰할 수 있는 방식으로 제거할 방법 개발과 거리가 멀다.

게브루 연구팀의 논문 초안에서 인용한 일부 연구를 포함, AI 언어 모델의 편견 문제를 자체적으로 연구했던 앨런 AI 연구소(Allen Institute for AI)의 CEO인 오렌 엣지오니(Oren Etzioni)는 “편견은 여러 형태로 존재하기 때문에 AI 언어 모델의 편견 해소 작업은 지금도 진행 중이다. AI 업계에 종사하는 이들 모두 언어 모델의 영향력이 갈수록 커지고 있으며, 책임감을 지니고 AI 모델을 배포하기 위해 윤리적 의무를 지녀야 한다고 인식한다”라고 주장했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Behind the Paper That Led to a Google Researcher’s Firing
이 기사를 공유합니다
RECOMMENDED