본문 바로가기 주메뉴 바로가기 검색 바로가기
테크 업계 저명 인사, 챗GPT 연구 일시 중단 촉구 경고
상태바
테크 업계 저명 인사, 챗GPT 연구 일시 중단 촉구 경고
테크 분야 저명 인사와 유명 과학자, 일론 머스크 등 많은 이들이 그 어느 때보다 더 강력한 AI 시스템 개발 및 구축이라는 통제 불가능한 경쟁을 경고했다.
By WILL KNIGHT, PARESH DAVE, WIRED US

1,000명이 넘는 유명한 인공지능(AI) 전문가와 테크 업계 기업가, 과학자 집단이 오픈AI의 언어모델인 GPT-4보다 더 강력한 AI 기술 개발 및 실험을 일시 중단하여 AI가 인류에 제기할 위험성을 제대로 연구할 것을 촉구하는 내용의 공개서한에 서명했다.

서한은 GPT-4와 같은 언어 모델이 이미 인간과 경쟁을 펼칠 분야가 증가하면서 일자리 자동화와 거짓 정보 유포에 악용될 수 있다고 경고한다. 또한, 인간을 대체하고 시민사회를 재구성할 AI 시스템과 관련하여 특정 전망을 제기하기도 했다. 

현대 AI의 선구자라는 평가를 받는 요슈아 벤지오(Yoshua Bengio) 몬트리올대학교 교수와 역사학자인 유발 노아 하라리(Yuval Noah Harari), 스카이프 공동 창립자 얀 탈린(Jaan Tallinn), 트위터 CEO 일론 머스크도 서명한 해당 서한은 “전 세계 AI 연구 시설에 최소한 6개월간 GPT-4보다 강력한 AI 시스템(현재 훈련 중인 GPT-5 포함) 훈련을 중단할 것을 촉구한다”라고 작성됐다.

인류에 미칠 기술적 위험성을 집중적으로 다루는 비영리단체 미래생명연구소(Future of Life Institute)가 작성한 해당 서한은 AI 시스템 연구, 개발 중단이 공개적으로 검증 가능한 방식으로 진행돼야 하며, GPT-4를 비롯한 모든 첨단 AI 모델 개발 작업도 중단 대상에 포함해야 한다고 덧붙여 경고했다. AI 개발 중단을 검증할 방식은 제시하지 않았다. 다만, “AI 개발 중단을 재빨리 시행할 수 없다면, 각국 정부와 기관이 개발 일시 중단에 공식 합의해야 한다”라며, 6개월 이내로 실현될 확률이 낮은 사항을 덧붙여 제시했다.

마이크로소프트와 구글은 서한 내용과 관련한 와이어드의 문의에 답변하지 않았다. 서한에 서명한 이들 중에는 마이크로소프트와 구글을 포함하여 첨단 언어 모델을 구축한 테크 기업 여러 곳의 직원도 포함된 것으로 보인다. 오픈AI 대변인 한나 웡 실바(Hannah Wong-Silva)는 오픈AI가 GPT-4 훈련 이후 안전성과 배포를 두고 6개월 이상 연구에 몰두했다고 밝혔다. 이어서 오픈AI는 현재 GPT-5 훈련을 진행 중이라는 일각의 주장을 부인했다.
 
[사진=Freepik]
[사진=Freepik]

서한은 AI 시스템이 갈수록 과감하면서 놀라운 진전을 거두는 시점에 공개됐다. GPT-4는 서한 공개일 2주 전에 배포됐다. 그러나 GPT-4의 성능은 대대적인 열광적 반응과 충분한 우려를 촉발했다. 오픈AI의 인기 챗봇인 챗GPT를 통해 접할 수 있는 GPT-4는 다수 학술 시험에서 고득점을 받았으며, 일반적으로 AI가 기존에 입증한 것보다 더 뛰어난 지능이 필요하다는 판단이 일반적이었던 까다로운 질문 여러 개를 정확히 풀어낼 수 있다. 다만, 사소한 논리적 실수는 여전히 빈번하다. 또, 앞서 배포된 GPT-3와 마찬가지로 간혹 정확하지 않은 정보를 사실인 것처럼 작성하고, 오랫동안 깊이 존재한 사회적 편견을 보여주기도 한다. 또, 증오나 피해를 줄 수 있는 답변을 유도할 만한 명령을 받을 수도 있다.

서한에 서명한 이들이 우려한 바는 오픈AI와 마이크로소프트, 구글이 최대한 AI 개발 및 배포를 위한 수익 기반 경쟁을 시작했다는 사실이다. 서한은 현재와 같은 속도대로라면, AI 개발은 사회와 규제 당국이 통제할 수 있는 범위를 넘어서 더 빠른 속도로 이루어질 것이라고 주장한다.

변화 속도와 투자 규모는 매우 크다. 마이크로소프트는 오픈AI에 100억 달러를 투자해, 오픈AI의 AI를 자사 검색 엔진 빙을 비롯한 여러 애플리케이션에서 사용한다. 구글은 GPT-4 개발에 필요한 일부 AI를 개발했으며, 과거에는 자체적으로 강력한 성능을 갖춘 언어 모델을 개발했다. 그러나 이후 윤리적 우려 때문에 배포하지 않는 방향을 선택했다.

그러나 챗GPT와 마이크로소프트의 검색 서비스 전환을 둘러싼 관심은 구글이 서둘러 자체 AI 개발 및 배포 계획을 추진하도록 등 떠미는 역할을 했다. 구글은 최근, 챗GPT의 대항마인 바드(Bard)를 배포하고, 오픈AI의 GPT와 비슷한 언어 모델이자 API를 통해 접근할 수 있는 모델인 PaLM을 제작했다. 텍사스대학교 오스틴캠퍼스 교수 겸 AI의 장기적 여파 이해를 목표로 한 보고서인 ‘AI 연구 100년(One Hundred Year Study on AI)’의 저자인 피터 스톤(Peter Stone) 교수는 “인간이 AI 발전과 채택과 관련하여 너무 빠른 행보를 보이는 듯하다”라고 평가했다.

공개서한에 서명하지 않은 스톤 교수는 서한에 작성된 내용 모두 동의하지 않는다고 밝혔다. 또, 개인적적으로 AI가 제기할 존립 위협도 우려하지 않는다고 말했다. 다만, AI 발전 속도는 AI 커뮤니티와 대중이 GPT-4 업그레이드 전, AI의 장점과 챗GPT 악용 사례를 탐색할 시간이 거의 없을 정도로 너무 빠르다고 주장한다. 스톤 교수는 “AI 활용 사례와 악용 사례를 어느 정도 실험한 뒤 다음 단계를 향한 경쟁을 펼쳐야 한다고 생각한다. 다음 모델 개발과 경쟁사보다 앞서 AI 시스템을 출시하려는 데 혈안인 경쟁이 되어서는 안 된다”라는 견해를 피력했다.

지금까지 AI 경쟁은 빠른 속도로 진행됐다. 오픈AI는 2019년 2월, 첫 번째 언어 모델인 GPT-2를 발표했다. 이듬해 6월, GPT-2의 뒤를 이을 언어 모델인 GPT-3가 공개됐다. GPT-3의 특징을 강화한 채로 도입된 챗GPT는 2022년 11월 배포됐다.

서한의 서명은 현재 AI 호황의 일부분으로, AI가 위험할 수도 있는 속도로 발전한다는 업계 내부의 우려를 반영한다. 생성형 AI 툴 개발사 스테이빌리티 AI(Stability AI) 창립자 겸 CEO이자 서한에 서명한 테크 업계 인사 중 한 명인 에마드 모스타퀴(Emad Mostaque)는 “AI를 개발하는 기업과 연구원도 첨단 AI가 사회, 더 나아가 인류의 존립 위협이 될 수 있다고 말한다. 그러나 AI의 위험성 전체를 완화할 계획은 전혀 없다. 이제는 AI 상용화라는 우선순위를 미루고, 불확실한 AI 발전 미래를 향한 경쟁보다는 누구나 접근하기 좋은 선한 AI 기술 연구를 위해 강력한 AI 연구, 개발을 잠깐 중단해야 한다”라고 말했다.

최근 들어 AI 역량이 발전한 상황은 AI 사용 시 위험성을 막을 추가 안전 조치가 필요하다는 인식이 제기된 시점과 일치한다. 현재 유럽연합은 위험성 포함에 의존한 AI 사용을 제한할 법안을 검토 중이다. 백악관은 시민 누구나 알고리즘의 차별, 데이터 프라이버시 침해 및 AI 관련 각종 문제를 예측할 수 있는 보호 조치를 다루는 AI 권리헌장(AI Bill of Rights)을 제안했다. 그러나 AI 관련 각종 규제는 최근의 생성형 AI 열풍 시작보다 훨씬 더 앞서 마련되기 시작했다.

서한 서명자 중 한 명이자 AI 및 디지털 정책 센터(CAIDP) 창립자이자 소장인 마크 로텐버그(Marc Rotenberg)는 “AI 연구, 개발을 일시 중단한 뒤 생성형 AI를 재빨리 구축할 때의 위험성을 고려해야 한다”라고 경고했다. CAIDP에 따르면, CAIDP는 미국 연방거래위원회(FTC)에 오픈AI와 챗GPT 조사, 접근 가능한 안전 조치 적용 전까지 AI 기술 업그레이드 금지를 촉구했다. 로텐버그 소장은 공개서한이 제 시점에 중요한 내용을 담은 채로 발표됐으며, 서한이 광범위한 영역에서 지지받기를 원한다고 밝혔다.

2022년 말, 챗GPT가 배포되었을 당시 교육 및 채용 여파를 중심으로 챗GPT의 능력과 관련한 논의가 재빨리 촉발되었다. 주목할 만큼 개선된 GPT-4의 능력은 더 큰 충격을 촉발했다. 오픈AI의 초기 자금을 지원한 일론 머스크는 최근, 트위터를 인수하면서 AI 발전을 이끄는 테크 업계 대기업의 위험성을 경고했다.

서한에 서명했다고 밝혔으나 언론의 취재 권한이 없어 익명을 요청한 테크 업계 대기업 엔지니어는 GPT-4 배포 직후 직접 사용한 적이 있다고 말했다. 해당 엔지니어는 GPT-4가 AI의 주요 전환 요소이지만, 중대한 우려 사항이기도 하다고 평가했다. 그는 “어떠한 수준이든 AI 개발을 6개월 동안 중단하는 것이 충분할지 모르겠다. 그러나 AI 연구, 개발 위험성과 관련하여 어떤 정책이 필요한가 생각해야 한다”라고 말했다.

다수 전문가는 AI 발전 수준이 매우 놀라우면서도 걱정된다고 말했다. 서한에 서명한 인물 중 한 명인 카네기멜론대학교 인간-컴퓨터 상호작용 부교수 켄 홀슈타인(Ken Holstein)는 “최근 AI 발전 상황이 매우 흥미롭다고 생각한다”라고 말했다.

그러나 이어서 경고를 하기도 했다. 홀슈타인 부교수는 “인류가 매우 빠른 속도로 이동하면서 피해를 보게 될 상황에 이를 것을 걱정한다”라며, AI 개발 속도는 규제 당국이 의미 있는 수준으로의 변화를 유지하기에는 너무 빠르다고 덧붙였다. 이어, “2023년, 다수 전문가가 AI 발전 상황을 더 자세히 알고 있을 것이라고 믿고 싶다”라고 말했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
In Sudden Alarm, Tech Doyens Call for a Pause on ChatGPT
이 기사를 공유합니다
RECOMMENDED