본문 바로가기 주메뉴 바로가기 검색 바로가기
판 커지는 ‘검색 엔진’, 윤리 문제 비상 상황도 더 심각
상태바
판 커지는 ‘검색 엔진’, 윤리 문제 비상 상황도 더 심각
AI 윤리 연구 전문가가 다년간 텍스트 생성 알고리즘의 편견과 거짓 정보 무작위 작성 가능성을 경고해왔다. 테크 업계 대기업은 서둘러 어떠한 형태든 텍스트 생성 알고리즘을 자사 제품에 적용하고자 한다.
By KHARI JOHNSON, WIRED US

2022년 말, 큰 인기를 얻은 오픈AI(OpenAI)의 챗봇 챗GPT(ChatGPT) 출시에 이어 구글 인공지능(AI) 최고 책임자 제프 딘(Jeff Dean)이 대화형 검색 엔진을 성급하게 배포한다면, 알파벳의 명성 위험성을 제기할 수 있다는 우려의 목소리를 냈다. 그러나 딘의 우려 발언 일주일 전, 구글은 자체 AI 챗봇 바드(Bard)를 공개했다. 바드는 첫 번째 시연 현장에서 제임스 웹 우주 망원경 관련 질문을 입력한 뒤 사실과 다른 정보를 제공했다.

또, 마이크로소프트는 바드 공개 다음 날 챗GPT 기반 기술을 빙(Bing)의 검색 결과를 제공하도록 통합하였다. 마이크로소프트 책임감 AI 사장 사라 버드(Sarah Bird)는 AI 챗봇이 거짓 정보를 사실인 것처럼 보여줄 가능성을 인정하면서도 이전보다 신뢰도가 향상되었다고 주장했다. 그리고 다음 날 빙은 1700년대에 개발된 기술로 실행하며, 2022년에 사용자 한 명을 설득했다고 주장했다.

알렉스 한나(Alex Hanna)는 구글과 마이크로소프트의 AI 챗봇 공개 현장에서 금전적 혜택 때문에 AI의 안전성이나 윤리성보다 신속한 AI 상용화를 더 중요하게 보는 이전과 비슷한 양상을 찾아냈다. 전직 구글 윤리적 AI(Ethical AI)팀 직원이자 현재 비영리 단체 디스트리뷰티드 AI 리서치(Distributed AI Research) 연구국장인 한나가 지적한 바와 같이 책임감이나 안전 부문에는 거액 투자가 이루어지지 않았다. 그러나 AI 챗봇 기술의 지나친 홍보에는 거액을 투자했다.

웹에서 수집한 다량의 데이터로 훈련하여 텍스트 생성 작업을 처리하도록 하는 AI 시스템인 대규모 언어 모델 개발 경쟁과 대규모 언어 모델의 윤리성 노력은 비슷한 시기에 시작된 AI 설계 과정의 핵심이다. 2018년, 구글은 언어 모델 BERT를 공개했다. 그에 앞서 메타와 마이크로소프트, 엔비디아가 현재 구글 검색 결과의 일부분이기도 한 AI를 기반으로 한 비슷한 프로젝트를 공개했다. 또, 같은 해 구글은 미래 프로젝트 제한 사항을 정한 AI 윤리 원칙을 채택했다. 이후 다수 AI 윤리 연구원은 대규모 언어 모델이 윤리적 위험성을 심화하며, 해로운 발언과 혐오 발언을 내뱉거나 더 심각한 문제를 일으킬 수 있다고 경고했다. 대규모 언어 모델은 특정 조건을 구성하여 사실이 아닌 내용을 작성하기도 한다.

여러 스타트업과 테크 업계 대기업이 챗GPT에 맞설 AI 챗봇 구축 시도에 나선 가운데, 일부 업계 관계자는 챗GPT가 사실적인 텍스트와 이미지를 생성할 정도로 뛰어난 지능을 갖춘 AI 구축을 용납할 시점이나 AI의 윤리성 인식 변화를 가져올 수 있을지 의문을 제기한다.

지난 몇 년간 오픈AI의 AI 모델 공개 과정이 달라졌다. 경영진은 텍스트 생성 AI 프로그램 GPT-2의 악용과 사회에 미칠 영향 우려 때문에 2019년, 수개월간 여러 단계에 걸쳐 배포했다. (당시 GPT-2의 공개 전략은 대중의 관심을 끄는 위험성이라는 비판을 받았다.) 2020년, GPT-2보다 더 강력한 AI 언어 모델의 GPT-3 훈련 과정을 상술한 문건이 공개됐다. 그 후 2개월도 지나지 않은 시점에 오픈AI는 개발자에게 API를 공개하는 방식으로 GPT-3의 텍스트 생성 기술을 상용화하였다. 2022년 11월, 챗GPT 공개 당시 기술적 문서나 연구 논문 공개 사항은 없었으며, 단순히 블로그 게시글만 올리고 시연한 뒤 구독 서비스를 출시했다.

오픈소스 AI 스타트업 허깅 페이스(Hugging Face) 정책국장 아이렌 소레이맨(Irene Solaiman)은 외부 압력이 챗GPT와 같은 AI 시스템의 책임감 유지에 도움이 될 것으로 확신한다. 소레이맨 국장은 학계와 업계 관계자와 협력해 비전문가가 텍스트 생성 프로그램과 이미지 생성 프로그램을 시범 사용하여 편견을 포함한 각종 문제를 평가할 방식을 개발한다. 과거, 오픈AI에서 시스템 유해성 완화 작업을 담당한 적이 있는 소레이맨 국장은 AI 프로그램 개발사 관계가자 아닌 외부 사용자도 AI 시스템을 철저히 조사할 수 있다면, 기업이 AI 프로그램 출시 전 왜곡된 결과나 기후 영향 테스트를 피할 수 없을 것이라고 주장한다.
 
[사진=Freepik]
[사진=Freepik]

각각의 문제점 평가는 AI 시스템이 항상 기능을 실행하는 방식을 완벽하게 읽을 수 있는 방법이 아닌 AI 모델을 명확하게 이해할 수단이다. 그러나 소레이맨 국장은 누구나 편견 생성과 같은 문제를 확인하여 AI의 피해 발생을 멈추고자 한다. AI 던전(AI Dungeon) 게임 플레이어가 GPT-3를 이용하여 아동의 성적 행위를 설명하는 글을 생성한 사례와 같이 경계해야 할 사례가 이미 등장했기 때문이다. 소레이맨 국장은 “AI 던전 사용자의 사례는 발생 가능성을 대비할 수 없는 수준의 극단적인 사례이다”라고 언급했다.

소레이맨 국장이 허깅 페이스에서 진행한 최신 연구는 주요 테크 기업이 2018년부터 2022년 사이에 공개한 생성형 모델에 갈수록 폐쇄적인 접근 방식을 택한다는 사실을 발견했다. 구글과 딥마인드 내 알파벳의 AI 팀에서 폐쇄적인 접근 방식 변화 추세가 더 빠른 속도로 관측된 후 GPT-2의 단계적 출시를 기점으로 AI 연구 작업을 하는 기업 전반으로 폐쇄적인 접근 방식이 확산됐다. AI 개발과 같은 획기적인 혁신 성과를 업계 비밀로 철저하게 관리하는 기업은 연구 자원이 거의 없는 소외된 연구원 집단의 AI 접근성이 줄어드는 데 앞장설 수도 있다.

대규모 언어 모델에 더 큰 돈이 투입되고, 비공개 공개가 자연어 처리 기술 분야 전반에서 그동안 관측된 흐름을 번복한다. 그동안 많은 연구원이 훈련 데이터세트와 가중치(parameter weights), 결과 재생성 능력 촉진 코드 등 상세 정보를 공유하고는 했다.

대규모 언어 모델을 집중 연구하는 스탠퍼드대학교 대학원생 알렉스 탐킨(Alex Tamkin)은 “AI 연구원의 훈련된 데이터베이스 시스템이나 AI 시스템 평가 방식 지식 정도가 갈수록 줄어드는 추세이다. 특히, 제품으로 출시되는 가장 강력한 성능을 갖춘 시스템 정보가 매우 부족하다”라고 말했다.

탐킨은 AI 윤리 분야 덕분에 신속한 AI 채택 전환, AI를 수십억 명이 사용하도록 배포할 때의 문제를 둘러싼 대중의 인식이 제기되었다고 본다. 지난 몇 년간 AI 윤리 문제 연구가 없었다면, 현재의 AI 배포 상황은 훨씬 더 심각했을 것이다.

2020년 가을, 탐킨은 오픈AI 정책국장 마일스 브룬데이지(Miles Brundage)와 함께 대규모 언어 모델의 사회적 영향을 주제로 한 심포지엄을 공동 주최했다. 다양한 주제를 다룬 심포지엄에서는 업계 지도자의 윤리적 표준 확립과 AI 시스템 구축 이전 편견 평가 운영 및 특정 사용 사례 기피 등과 같은 단계의 필요성을 강조했다.

탐킨은 AI 개발 기업과 함께 외부 AI 감사 서비스가 필요하다고 확신한다. 보통 AI 내부 평가가 부족하기 때문이다. 탐킨은 지역사회 구성원과 다수 이해관계자를 포함한 여러 구성원이 참여한 평가 방식이 AI 모델 생성 단계에 누구나 참여할 기회를 높일 가능성이 크다고 본다.

미시간대학교 AI 윤리 및 정책 센터 연구소장인 메브 히콕(Merve Hickock)은 기업의 AI 광고 배제나 허점 존재, 자기 규제, 윤리 원칙 채택 시도만으로는 부족하다고 생각한다. 히콕 소장은 인권 보호는 과거의 윤리 문제 대화를 합법 문제 대화로 전환하는 것을 의미한다고 말한다.

히콕 소장과 한나 모두 2023년 최종 발표될 유럽연합 AI법(AI Act)의 텍스트 및 이미지 생성 모델 관련 규정에 주목한다. 히콕 소장은 특히 유럽 국회의원이 구글, 마이크로소프트, 오픈AI 등 AI 시스템 개발사의 모델이 포함된 피해 발생 시 법적 책임 문제를 다루는 방식에 주목한다.

히콕 소장은 “현재 AI 시스템과 관련된 일부 사항은 법적 의무화가 필요하다. 의무화가 되지 않는다면, AI 개발 기업이 계속 문제를 일으키고는 권리와 지역사회보다는 기업 이윤을 추구하는 상황이 반복될 것이기 때문이다”라고 주장했다.

유럽 의회에서 AI 관련 정책을 논의했으나 AI의 위험성은 여전히 크다. 바드가 시연 현장에서 오답 생성 논란을 일으킨 다음 날 알파벳의 주가 폭락으로 시가총액이 1,000억 달러 가까이 증발했다. 한나는 “대규모 언어 모델이 공개적으로 오류를 일으킨 탓에 자산 피해로 이어진 사례를 관측한 것은 이번이 처음이다”라고 말했다. 그러나 주가와 시가총액 급락이 기업의 성급한 AI 시스템 상용화 속도를 늦추지 못할 것으로 전망한다. 한나는 “개인적으로 AI 시스템의 오류가 더 신중한 태도로 이어지지는 않을 듯하다”라고 말했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Chatbots Got Big—and Their Ethical Red Flags Got Bigger
이 기사를 공유합니다
RECOMMENDED