본문 바로가기 주메뉴 바로가기 검색 바로가기
오픈AI 직원, 위험성 및 보복 조직 문화 경고
상태바
오픈AI 직원, 위험성 및 보복 조직 문화 경고
오픈AI를 포함한 복수 AI 부문 대기업의 전, 현직원 여러 명이 서명한 공개서한은 인공지능이 급속도로 진화하는 추세에서 내부고발자 보호를 촉구한다.
By WILL KNIGHT, WIRED US

오픈AI의 전, 현직원 여러 명이 공개서한을 발표했다. 서한은 오픈AI와 인공지능(AI) 개발에 뛰어든 복수 경쟁사가 필요한 수준 이상의 위험성을 갖추었으나 충분한 감독이 없는 상태에서 AI 개발 작업을 이어간다는 사실을 경고하는 동시에 무책임한 행동을 목도한 직원의 입을 막는다고 폭로했다.

righttowarn.ai에 게재된 서한에는 “현재 AI 개발 과정의 위험성은 기존 불평등 고착화부터 정보 조작 및 거짓 정보 유포, 인간 멸종으로 이어질 위험성을 일으킬 수 있는 자동화 AI 시스템 통제 권한 상실까지 이른다”라는 내용과 함께 “각국 정부가 AI 기업을 효과적으로 감독하지 못한다면, AI 문제에 책임을 질 수 있는 인원은 AI 개발 기업의 전, 현직원이다”라고 기술되었다.

서한은 오픈AI뿐만 아니라 AI 개발을 진행 중인 모든 기업을 대상으로 기업의 활동을 공개적으로 비판하는 직원을 처벌하는 일이 없도록 약속하도록 촉구한다. 근로자가 익명으로 기업의 AI 개발 활동 관련 피드백을 제공할 수 있는 검증된 방법 확립도 촉구했다. 서한은 “일반적인 내부고발자 보호 대책은 부족하다. 기존 보호 대책은 불법 활동에 초점을 맞추는 반면, 우려사항 대부분 규제가 적용되지 않기 때문이다”라며, “AI 기업의 일부 전, 현직원은 테크 업계 전반의 내부고발자 보복 사례를 고려하여 다양한 형태의 보복을 우려한다”라고 주장한다.
 
[사진=Unsplash]
[사진=Unsplash]

오픈AI는 기업 비판 금지, 더 나아가 기업 비판 금지 조항의 존재를 언급하지 않는다는 조항으로 구성된 비판금지서약에 서명하지 않는 직원을 대상으로 수당을 환수한다는 위협을 가한 사실이 2024년 5월, 북미 디지털 매체 복스(Vox)의 보도를 통해 알려진 후 비판 여론을 직면했다. 이후 샘 알트만은 X에 비판금지서약 내 논란이 된 조항을 인지하지 못했으며, 오픈AI 내부에서 직원의 수당을 환수한 적이 없다는 트윗을 게재했다. 또한, 문제가 된 조항을 삭제하여 직원의 발언을 제한하지 않는다고 전했다. 오픈AI는 비판금지서약과 관련한 와이어드의 문의에 답변하지 않았다.

또, 오픈AI는 최근 경영 안전 접근 방식을 변경하기도 했다. 2024년 5월, 오픈AI 내 AI 모델이 제기하는 장기적 위험성 평가 및 대응을 담당한 연구팀은 일부 유력 인사가 퇴사하고 남은 직원은 다른 부서로 통합되면서 해체되었다. 그리고 몇 주 뒤 오픈AI는 알트만과 다른 이사회 구성원이 이끄는 안전보안위원회(Safety and Security Committee)를 설립했다고 발표했다.

2023년 11월, 오픈AI 이사회는 정보 공개를 하지 못하여 오해를 유발했다는 주장과 함께 알트만을 CEO에서 해임했다. 이후 널리 공개된 다툼이 이어진 끝에 알트만은 오픈AI CEO로 복귀했다. 동시에 당시 이사회 구성원 대부분 퇴출당했다.

공개서한 서명자 중에는 오픈AI 안전관리 담당 직원과 익명으로 서명한 현직원, 오픈AI의 경쟁사에 근무 중인 연구원도 여럿 포함되었다. AI 연구를 선도하여 튜링상을 수상한 적이 있는 AI 부문 권위자인 제프리 힌튼(Geoffrey Hinton)과 요슈아 벤지오(Yoshua Bengio), AI 안전 연구 부문 전문가 스튜어트 러셀(Stuart Russell) 등 일부 AI 연구 분야의 거물급 인사도 서한에 서명했다.

윌리엄 손더스(William Saunders), 캐롤 웨인라이트(Carroll Wainwright), 대니얼 지글러(Daniel Ziegler) 등 오픈AI AI 안전 업무를 담당한 적이 있는 오픈AI 전 직원 여러 명도 서명에 동참했다.

오픈AI 강화학습 연구를 담당한 경험이 있는 제이콥 힐튼(Jacob Hilton) 연구원은 “포괄적으로 보았을 때 대중은 AI 개발 속도를 과소평가하고 있다”라고 주장했다. 힐튼은 새로운 연구 기회를 위해 오픈AI를 떠난 지 1년이 넘었다. 그는 오픈AI를 포함한 AI 기업이 안전한 방식으로 AI를 개발하더라도 실제로 안전성을 보장하기 위한 감독은 거의 없다고 전했다. 이어, “AI 기업 전, 현직원은 서한을 통해 요청하는 보호 대책을 오픈AI뿐만 아니라 AI 개발에 뛰어든 모든 기업에 적용하고자 한다”라고 말했다.

오픈AI 재직 당시 AI 관리를 담당했던 대니얼 코코타지로(Daniel Kokotajlo) 연구원은 “오픈AI가 책임감을 갖고 AI 개발을 한다는 확신이 사라져 퇴사를 결정했다. 대중적으로 공개해야 한다고 생각하는 문제점이 많다”라며, 구체적인 설명은 거부했다.

코코타지로는 서한이 투명성을 강화하기를 바란다. 오픈AI를 포함한 AI 기업이 비판금지서약 관련 뉴스 보도 후 쏟아진 비판 여론을 고려하면, 지금이 사내 정책을 변경하기 좋은 시기라고 확신하기도 한다. 한편으로는 AI 개발이 우려스러울 정도로 빠른 속도로 진행 중이라고 생각한다. 그는 “적어도 주관적인 관점에서 말하자면, 앞으로 몇 년 뒤 AI 개발 위험성이 훨씬 더 커질 것이다”라고 말했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
OpenAI Employees Warn of a Culture of Risk and Retaliation
이 기사를 공유합니다
RECOMMENDED