현재 생성형 AI의 변화 속도는 매우 놀랄 정도로 빠르다. 오픈AI는 4개월 전, 챗GPT를 공개 출시했다. 챗GPT는 출시 후 단 2개월 만에 사용자 수 1억 명을 기록했다. (챗GPT 이전 인터넷 세계에서 열풍을 일으킨 틱톡은 사용자 수 1억 명을 기록하는 데 9개월이 걸렸다.) 구글은 서둘러 챗GPT의 열풍 속도를 따라잡으려 나서면서 자체 인공지능(AI) 챗봇인 바드(Bard)를 공개했다. 게다가 익스피디아(Expedia), 오픈테이블(OpenTable) 등 인기 웹사이트의 봇 개발 작업을 위한 신규 플러그인은 물론이고, 바드 이외에도 챗GPT를 모방한 AI 챗봇도 우후죽순으로 등장했다. 오픈AI가 2023년 3월 공개한 최신 언어 모델인 GPT-4는 기존 언어 모델보다 더 정확하고 다양한 기능을 지원하면서 텍스트와 이미지, 영상, 오디오 모두 한 번에 다룬다. 이미지 생성 기술도 마찬가지로 빠른 속도로 발전하고 있다. 미드주어니(MidJourney)가 가장 최근 배포한 AI 이미지 생성 툴은 도널드 트럼프의 체포 이미지와 은색 패딩 자켓을 착용한 프란치스코 교황의 합성 이미지 확산이라는 열풍을 일으키면서 온라인에서 보게 되는 모든 사진의 합성 여부를 의심하게 될 날이 조만간 다가올 것이라는 점이 분명해졌다.
그리고 AI로 생성한 콘텐츠가 언론 주요 보도 내용을 장악했다. 주요 뉴스로 다룬 AI 관련 보도 내용의 제목은 “AI, 공교육 현장 등장”, “공상과학 소설, AI가 작성한다”, “AI, 법률 판결 문서 작성 능력 입증”, “‘AI’가 제작한 게임 등장”, “영상 제작도 AI로”, “보안 침입 퇴치도 AI로”, “AI, 때아닌 문화 전쟁 촉발”, “AI, 암시장도 형성”, “AI, 스타트업 황금기 촉진”, “검색 엔진, AI가 장악”, “AI DJ와 즐기는 음악”, “내 일자리, 다음 경쟁자는 AI” 등이다.
AI 광풍이 펼쳐지는 한 가운데 필자는 지금까지 두 차례에 걸쳐 생성형 AI의 탄생을 원자 폭탄 제조 상황과 비교하였다. 놀라운 사실은 생성형 AI와 원자 폭탄의 탄생 비유가 그 의미 측면에서 전혀 다른 관점이라는 사실이다.
[사진=Freepik]
생성형 AI와 원자 폭탄의 탄생 과정 중 가장 비슷한 점은 생성형 AI 혁신을 이끈 인물이 최고 기술자이자 오픈AI의 CEO인 샘 알트만(Sam Altman)이라는 사실이다. 알트만은 뉴욕타임스와의 인터뷰에서 맨해튼 프로젝트(Manhattan Project)를 “인류가 열망하는 야망의 수준”이라는 발언을 했다. 생성형 AI의 탄생을 원자 폭탄의 탄생에 빗대어 말한 또 다른 인물은 인도적 기술 센터(Center for Humane Technology)의 트리스탄 해리스(Tristan Harris)와 아자 라스킨(Aza Raskin)이다. 해리스와 라스킨 모두 SNS가 민주주의를 무너뜨린다는 경고를 한 것으로 유명하다. 현재 해리스와 라스킨은 누구든지 놀라우면서도 예측 불가능한 힘을 지닌 수단을 손에 넣도록 하면서 시민사회 자체를 무너뜨릴 수 있다고 경고한다.
알트만이 해리슨과 라킨슨의 AI가 시민사회를 파괴할 수 있다는 주장 자체에 반대하지 않는다는 사실은 분명하다. 알트만은 다른 이들보다 더 나은 의도를 지녔기 때문에 사용자를 보호할 수단을 갖춘 AI 툴 개발을 보장하려 할 수 있다고 주장한다. 게다가 알트만은 어떠한 방법이든 AI의 발전을 막을 수 없다는 이유로 AI 개발을 추진할 수밖에 없다. 신뢰와 예방할 수 없는 치명적 피해가 섞인 예측이 어려운 상황이다.
기록 측면에서 기술의 발전을 멈출 수 없다는 주장에 동의한다. 다만, 기술을 개발하는 순간에 사용자를 위한 보호 조치를 적용하는 노력이 우스꽝스러울 정도로 부족하다고 본다. 그 예시로 챗GPT의 혐오 발언 분류 능력이나 범죄 행위 조력 발언을 생성한 사례를 언급할 수 있다. 모든 AI 생성 이미지에 제거가 어려운 디지털 워터마크를 적용해 프란치스코 교황의 AI 이미지와 같은 딥페이크 콘텐츠 감지가 수월해지도록 하는 일은 오픈AI, 미드주어니 같은 기업에는 식은 죽 먹기일 수도 있다. 콘텐츠 인증 계획(Content Authenticity Initiative)이라는 동맹이 생성형 AI 툴의 악용 사례를 방지할 의도로 형성되었다. 콘텐츠 인증 계획이 제시한 프로토콜은 예술가 집단이 자발적으로 메타데이터와 AI 생성 이미지를 연결하도록 한다. 하지만 지금까지 AI의 문제 방지 노력에 합류한 주요 생성형 AI 기업은 단 한 곳도 없다.
하지만 생성형 AI의 발전을 긍정적으로 보든 부정적으로 보든 생성형 AI와 원자 폭탄 간의 평행 이론은 유용하기보다는 오해를 불러일으킬 소지가 많다고 본다. 핵은 말 그대로 순식간에 인류 대부분이 사라지도록 할 정도로 심각한 위력을 지녔으나 실제로 핵을 손에 넣을 수 있는 이는 상대적으로 매우 적다. 반면, 생성형 AI는 악용할 이들이 많지만, 눈 깜짝할 사이에 인류 대부분이 사라지도록 할 수는 없다.
물론, GPT-4나 그 후 개발되는 AI에 보호 조치가 적용되지 않았다면, 코로나19보다 전파력이 더 강력하면서 피해를 본 인간 20%가 사망하도록 할 만한 강력한 무기를 생성할 수도 있다. 그러나 인류는 다년간 치명적인 독극물 제조 공식과 바이러스성 질병의 유전자 코드가 온라인에 널리 확산되었으나 지금도 존재한다.
그 대신, AI가 무서운 이유는 그 누구도 인간의 대다수 AI 활용 사례를 예측할 수 없다는 점이다. 생성형 AI의 일부 활용 사례는 매우 특수한 목적의 핵 사용 사례와 같이 급속도로 무용지물이 될 수도 있다. 한 가지 사례로 생성형 AI를 이용한 대학 논문 작성 사례를 언급할 수 있다. 혹은 치명적인 여파가 더 천천히 드러나면서 예측이 어려워질 것이다. 챗GPT가 코드 작성 능력이 뛰어난 수단이라는 점이 입증되었으나 인간이 코딩 지식을 공유하는 공동체 집단 내에서는 챗GPT가 무용지물이 돼 미래 AI와 인간 개발자의 훈련 기반을 무너뜨릴 위험성을 우려하는 이들도 있다.
그러나 생성형 AI의 발전을 맨해튼 프로젝트에 비유한 것은 다음과 같은 한 가지 측면에서 올바른 비유라고 생각한다. 바로 누구나 생성형 AI에 접근하기 이전과 이후의 세계가 존재하며, 생성형 AI 존재 전후의 세계는 다르다는 사실이다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)