By DAVID GILBERT, WIRED US
지난 몇 주간 이른바 딥페이크 영상이 조 바이든 대통령의 대통령으로 부적절하다고 주장하는 이른바 칩페이크(cheapfake) 영상이 SNS에 널리 확산되었다. 그중 하나는 러시아 정부와 관계가 있는 거짓 정보 네트워크가 제작한 바이든 대통령이 기저귀를 찬 채로 휠체어를 미는 모습을 담은 패러디 뮤직비디오이다.
‘바이, 바이 바이든(Bye, Bye Biden)’이라는 제목으로 게재된 칩페이크 영상은 X(구 트위터)에 2024년 5월 자로 처음 게재된 후 누적 조회 수 500만 회를 넘겼다. 영상은 바이든 대통령이 노쇠하여 보청기를 찬 채로 병원 진료 관련 대화를 많이 나누는 모습을 묘사했다. 또한, 바이든 대통령이 불법 이민자로 보이는 어느 한 인물에게 돈을 건네면서 미국 시민에게는 우크라이나 국기를 상징하는 듯한 의상으로 갈아입기 전까지 돈을 지급하는 것을 거부하는 모습을 보여주기도 했다. 다른 장면에서는 바이든 대통령이 벽에 신나치주의 깃발이 걸린 어느 한 가정집의 현관문을 열어 이민자가 들어와 집 안을 장악하도록 하는 모습으로 등장한다. 영상 마지막 장면에는 도널드 트럼프 전 대통령이 주장한 선거 탈취 음모론을 언급하는 장면이 포함되었다.
영상을 제작자의 정체는 2022년, 러시아의 우크라이나 침략 이후 러시아에서 망명한 실제 러시아 밴드인 리틀빅(Little Big)의 스타일을 모방한 단체인 리틀버그(Little Bug)이다. 영상에는 러시아를 본거지로 두고 활동하면서 러시아 언론 기관 에이전시미디어(Agency.Media)에서 인터뷰한 배우 여러 명이 등장한다. 같은 영상에는 인공지능(AI) 기술을 이용하여 제작한 리틀빅의 메인보컬인 일리야 프루스킨(Ilya Prusikin)과 바이든, 트럼프와 비슷한 인물도 등장했다.
와이어드를 위해 러시아의 칩페이크 영상을 분석한 AI 및 머신 비전 전문가 알렉스 핑크(Alex Fink)는 “바이든과 트럼프 모두 동일 인물로 보인다. 때에 따라 바이든과 비슷한 모습으로 보이기도 하고, 트럼프처럼 보이기도 하도록 딥페이크 영상 편집으로 얼굴 특징을 바꾸도록 한 것으로 보인다”라며, “편집 결과물은 일관성이 없다. 따라서 간혹 동일 인물이 바이든처럼 보이기도 하고, 트럼프처럼 보이기도 한다. 얼굴 특징이 계속 바뀐다”라고 설명했다.
선거 관련 딥페이크 콘텐츠 유포 문제를 퇴치한다는 목표로 설립된 비영리 단체 트루미디어(True Media)는 영상 분석 후 영상 속 음성이 AI로 생성된 사실이 100% 확실하다고 결론을 내렸다. 또한, 일부 AI 기술을 동원하여 배우 얼굴을 조작했을 확률을 78%로 평가했다.
핑크는 리틀버그가 제작한 영상에 나타난 딥페이크 기술의 분명한 자연적 특징으로 알 수 있는 사실로 영상이 바이든 대통령과 트럼프가 등장하는 모습을 생성하고자 생성형 적대적 네트워크 소수를 거듭 사용하여 서둘러 제작되었다는 점을 언급했다.
영상 제작 배후 세력이 확실한 것은 아니지만, ‘바이, 바이 바이든’ 자체는 러시아 정부와 관련이 있는 네트워크인 도플갱어(Doppelganger)가 널리 유포했다는 점은 확실하다. 도플갱어가 유포한 가짜 영상이 X에 게재된 빈도는 셀 수 없을 정도로 많다. 이후 도플갱어의 활동을 6개월 동안 추적한 익명의 러시아 연구원 단체인 Antibot4Navalny가 딥페이크 영상을 발견했다.
딥페이크 영상 유포 작전은 2024년 5월 21일 자로 처음 시작되어 X에 13개 언어로 제작된 가짜 영상을 홍보하는 게시글 4,000여 건이 게재되었다. 도플갱어가 보유한 2만 5,000여 개가 바이든 대통령을 겨냥한 딥페이크 영상을 유포했다. Antibot4Navalny 연구팀은 게시물에 포함된 글도 생성형 AI의 도움을 받아 작성되었다는 결론을 내렸다. 영상은 X에서 650만 회 공유되고, 500만 회에 가까운 조회 수를 기록했다.
딥페이크 영상을 공유한 세력 중에는 팔로워 33만 명을 보유한 스위스 SNS 인플루언서 바딤 로스쿠토프(Vadim Loskutov)가 운영하는 계정인 러시아 마켓(Russian Market)이라는 유명한 계정도 있었다. 바딤 로스쿠토프는 러시아를 찬양하는 동시에 서양 세계를 비판하는 인물로 유명하다. 2023년, 시민권을 얻고자 러시아를 옹호한 인물인 타라 리드(Tara Reade)도 영상을 공유했다. 리드는 1993년, 자신이 당한 성폭행 가해자로 바이든 대통령을 고소했다.
Antibot4Navalny 연구팀은 와이어드에 온라인에서 거짓 탐지를 피할 의도로 조작되었다고 전했다. 연구팀은 “도플갱어는 임의의 순간에 영상을 조작했다. 영상을 밀리초 단위로 분석했을 때 기술적 차이점을 발견할 수 있다. 결과적으로 악용 보호 시스템이 차별화된 악용 보호 시스템으로 판단할 가능성이 있다”라고 설명했다.
이어, 연구팀은 “영상 조작의 임의적 특성 속에는 한 가지 독특한 특징이 있다. 인지도가 있는 러시아 밴드일 수도 있고 아닐 수도 있다. 혹은 딥페이크 콘텐츠일 수도, 아닐 수도 있다. 다시 말해, 소련식 선동 광고 영상임이 분명하다. 임의성은 수많은 온라인 기사와 논쟁을 의미하면서 결과적으로 영상을 보는 사용자가 증가한다는 사실을 의미하는 여러 버전으로 영상을 제작하도록 한다”라는 설명을 추가했다.
러시아 정부가 2024년 11월에 치를 미국 대통령 선거 방해 공작을 늘리는 가운데, 러시아가 최근 들어 급부상한 AI 기술을 동원할 의사가 있다는 사실이 갈수록 분명하게 드러나고 있다. 2024년 6월 말, 위협 정보 기업 리코디드퓨처(Recorded Future)가 발행한 보고서는 러시아 정부와 관련성이 있는 것으로 드러난 선동 광고 제작 및 유포 추세에서 가짜 웹사이트 여러 개를 운영하는 네트워크에서 트럼프를 지지하는 콘텐츠 확산을 추진하는 데 생성형 AI 툴을 이용한다는 사실을 강조했다.
보고서는 카피콥(CopyCop)이라는 이름으로 알려진 선동 광고 작전이 AI 툴을 사용하여 실제 뉴스 웹사이트의 콘텐츠를 대거 끌어모으고는 우익 세력에 편향된 콘텐츠로 재구성한 뒤 레드스테이트리포트(Red State Report), 패트리오틱 리뷰(Patriotic Review) 등 1,000명이 넘는 기자가 근무한다고 주장하는 가짜 웹사이트 네트워크에 다시 송출하는 과정을 상술했다. 가짜 웹사이트 네트워크의 소속 기자 모두 AI로 생성한 허구의 인물인 것으로 확인됐다.
선동 광고 작전으로 유포하는 주제는 바이든 대통령의 연설 실수, 바이든 대통령의 나이, 트럼프의 지지도가 더 높다는 여론 조사 결과, 트럼프의 최근 유죄 판결과 형사 재판이 어떠한 영향도 없으면서 엉망이라는 주장 등이 있다.
러시아의 선동 광고 유포 웹사이트를 운영하는 네트워크의 영향력이 어느 정도인지는 불확실하다. 와이어드의 SNS 플랫폼 검토 결과, 카피콥이 제작한 가짜 웹사이트 네트워크와의 관련성은 매우 적은 것으로 보였다. 하지만 카피콥은 AI가 거짓 정보 유포 속도를 높이면서 범위도 넓힐 수 있다는 사실을 입증했다. 이에, 복수 전문가가 카피콥을 도플갱어와 같은 거짓 정보 유포 네트워크가 포함되었을 수도 있는 포괄적 전략의 첫 단계일 수도 있다고 진단했다.
리코디드퓨처 애널리스트 클레멘트 브라이엔스(Clément Briens)는 와이어드에 “AI로 조작한 선동 광고 유포 웹사이트 참여 수준을 측정하는 작업은 지금도 어려운 작업이다”라며, “AI로 생성한 콘텐츠는 어떠한 관심도 받지 못할 수도 있다. 하지만 선동 광고 유포 웹사이트 여러 개가 특정 대상을 겨냥한 딥페이크 콘텐츠를 기존 팔로워와 청중을 보유한 러시아 혹은 친러 성향의 인플루언서가 확립한 선동 광고 유포 웹사이트 여러 개를 강조하고자 할 때 신뢰할 만한 자산으로 자리 잡는 데 도움을 주기 위한 목적을 수행한다”라고 설명했다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)
<기사원문>
A Russian Propaganda Network Is Promoting an AI-Manipulated Biden Video
지난 몇 주간 이른바 딥페이크 영상이 조 바이든 대통령의 대통령으로 부적절하다고 주장하는 이른바 칩페이크(cheapfake) 영상이 SNS에 널리 확산되었다. 그중 하나는 러시아 정부와 관계가 있는 거짓 정보 네트워크가 제작한 바이든 대통령이 기저귀를 찬 채로 휠체어를 미는 모습을 담은 패러디 뮤직비디오이다.
‘바이, 바이 바이든(Bye, Bye Biden)’이라는 제목으로 게재된 칩페이크 영상은 X(구 트위터)에 2024년 5월 자로 처음 게재된 후 누적 조회 수 500만 회를 넘겼다. 영상은 바이든 대통령이 노쇠하여 보청기를 찬 채로 병원 진료 관련 대화를 많이 나누는 모습을 묘사했다. 또한, 바이든 대통령이 불법 이민자로 보이는 어느 한 인물에게 돈을 건네면서 미국 시민에게는 우크라이나 국기를 상징하는 듯한 의상으로 갈아입기 전까지 돈을 지급하는 것을 거부하는 모습을 보여주기도 했다. 다른 장면에서는 바이든 대통령이 벽에 신나치주의 깃발이 걸린 어느 한 가정집의 현관문을 열어 이민자가 들어와 집 안을 장악하도록 하는 모습으로 등장한다. 영상 마지막 장면에는 도널드 트럼프 전 대통령이 주장한 선거 탈취 음모론을 언급하는 장면이 포함되었다.
영상을 제작자의 정체는 2022년, 러시아의 우크라이나 침략 이후 러시아에서 망명한 실제 러시아 밴드인 리틀빅(Little Big)의 스타일을 모방한 단체인 리틀버그(Little Bug)이다. 영상에는 러시아를 본거지로 두고 활동하면서 러시아 언론 기관 에이전시미디어(Agency.Media)에서 인터뷰한 배우 여러 명이 등장한다. 같은 영상에는 인공지능(AI) 기술을 이용하여 제작한 리틀빅의 메인보컬인 일리야 프루스킨(Ilya Prusikin)과 바이든, 트럼프와 비슷한 인물도 등장했다.
와이어드를 위해 러시아의 칩페이크 영상을 분석한 AI 및 머신 비전 전문가 알렉스 핑크(Alex Fink)는 “바이든과 트럼프 모두 동일 인물로 보인다. 때에 따라 바이든과 비슷한 모습으로 보이기도 하고, 트럼프처럼 보이기도 하도록 딥페이크 영상 편집으로 얼굴 특징을 바꾸도록 한 것으로 보인다”라며, “편집 결과물은 일관성이 없다. 따라서 간혹 동일 인물이 바이든처럼 보이기도 하고, 트럼프처럼 보이기도 한다. 얼굴 특징이 계속 바뀐다”라고 설명했다.
선거 관련 딥페이크 콘텐츠 유포 문제를 퇴치한다는 목표로 설립된 비영리 단체 트루미디어(True Media)는 영상 분석 후 영상 속 음성이 AI로 생성된 사실이 100% 확실하다고 결론을 내렸다. 또한, 일부 AI 기술을 동원하여 배우 얼굴을 조작했을 확률을 78%로 평가했다.
핑크는 리틀버그가 제작한 영상에 나타난 딥페이크 기술의 분명한 자연적 특징으로 알 수 있는 사실로 영상이 바이든 대통령과 트럼프가 등장하는 모습을 생성하고자 생성형 적대적 네트워크 소수를 거듭 사용하여 서둘러 제작되었다는 점을 언급했다.
영상 제작 배후 세력이 확실한 것은 아니지만, ‘바이, 바이 바이든’ 자체는 러시아 정부와 관련이 있는 네트워크인 도플갱어(Doppelganger)가 널리 유포했다는 점은 확실하다. 도플갱어가 유포한 가짜 영상이 X에 게재된 빈도는 셀 수 없을 정도로 많다. 이후 도플갱어의 활동을 6개월 동안 추적한 익명의 러시아 연구원 단체인 Antibot4Navalny가 딥페이크 영상을 발견했다.
딥페이크 영상 유포 작전은 2024년 5월 21일 자로 처음 시작되어 X에 13개 언어로 제작된 가짜 영상을 홍보하는 게시글 4,000여 건이 게재되었다. 도플갱어가 보유한 2만 5,000여 개가 바이든 대통령을 겨냥한 딥페이크 영상을 유포했다. Antibot4Navalny 연구팀은 게시물에 포함된 글도 생성형 AI의 도움을 받아 작성되었다는 결론을 내렸다. 영상은 X에서 650만 회 공유되고, 500만 회에 가까운 조회 수를 기록했다.
딥페이크 영상을 공유한 세력 중에는 팔로워 33만 명을 보유한 스위스 SNS 인플루언서 바딤 로스쿠토프(Vadim Loskutov)가 운영하는 계정인 러시아 마켓(Russian Market)이라는 유명한 계정도 있었다. 바딤 로스쿠토프는 러시아를 찬양하는 동시에 서양 세계를 비판하는 인물로 유명하다. 2023년, 시민권을 얻고자 러시아를 옹호한 인물인 타라 리드(Tara Reade)도 영상을 공유했다. 리드는 1993년, 자신이 당한 성폭행 가해자로 바이든 대통령을 고소했다.
Antibot4Navalny 연구팀은 와이어드에 온라인에서 거짓 탐지를 피할 의도로 조작되었다고 전했다. 연구팀은 “도플갱어는 임의의 순간에 영상을 조작했다. 영상을 밀리초 단위로 분석했을 때 기술적 차이점을 발견할 수 있다. 결과적으로 악용 보호 시스템이 차별화된 악용 보호 시스템으로 판단할 가능성이 있다”라고 설명했다.
이어, 연구팀은 “영상 조작의 임의적 특성 속에는 한 가지 독특한 특징이 있다. 인지도가 있는 러시아 밴드일 수도 있고 아닐 수도 있다. 혹은 딥페이크 콘텐츠일 수도, 아닐 수도 있다. 다시 말해, 소련식 선동 광고 영상임이 분명하다. 임의성은 수많은 온라인 기사와 논쟁을 의미하면서 결과적으로 영상을 보는 사용자가 증가한다는 사실을 의미하는 여러 버전으로 영상을 제작하도록 한다”라는 설명을 추가했다.
러시아 정부가 2024년 11월에 치를 미국 대통령 선거 방해 공작을 늘리는 가운데, 러시아가 최근 들어 급부상한 AI 기술을 동원할 의사가 있다는 사실이 갈수록 분명하게 드러나고 있다. 2024년 6월 말, 위협 정보 기업 리코디드퓨처(Recorded Future)가 발행한 보고서는 러시아 정부와 관련성이 있는 것으로 드러난 선동 광고 제작 및 유포 추세에서 가짜 웹사이트 여러 개를 운영하는 네트워크에서 트럼프를 지지하는 콘텐츠 확산을 추진하는 데 생성형 AI 툴을 이용한다는 사실을 강조했다.
보고서는 카피콥(CopyCop)이라는 이름으로 알려진 선동 광고 작전이 AI 툴을 사용하여 실제 뉴스 웹사이트의 콘텐츠를 대거 끌어모으고는 우익 세력에 편향된 콘텐츠로 재구성한 뒤 레드스테이트리포트(Red State Report), 패트리오틱 리뷰(Patriotic Review) 등 1,000명이 넘는 기자가 근무한다고 주장하는 가짜 웹사이트 네트워크에 다시 송출하는 과정을 상술했다. 가짜 웹사이트 네트워크의 소속 기자 모두 AI로 생성한 허구의 인물인 것으로 확인됐다.
선동 광고 작전으로 유포하는 주제는 바이든 대통령의 연설 실수, 바이든 대통령의 나이, 트럼프의 지지도가 더 높다는 여론 조사 결과, 트럼프의 최근 유죄 판결과 형사 재판이 어떠한 영향도 없으면서 엉망이라는 주장 등이 있다.
러시아의 선동 광고 유포 웹사이트를 운영하는 네트워크의 영향력이 어느 정도인지는 불확실하다. 와이어드의 SNS 플랫폼 검토 결과, 카피콥이 제작한 가짜 웹사이트 네트워크와의 관련성은 매우 적은 것으로 보였다. 하지만 카피콥은 AI가 거짓 정보 유포 속도를 높이면서 범위도 넓힐 수 있다는 사실을 입증했다. 이에, 복수 전문가가 카피콥을 도플갱어와 같은 거짓 정보 유포 네트워크가 포함되었을 수도 있는 포괄적 전략의 첫 단계일 수도 있다고 진단했다.
리코디드퓨처 애널리스트 클레멘트 브라이엔스(Clément Briens)는 와이어드에 “AI로 조작한 선동 광고 유포 웹사이트 참여 수준을 측정하는 작업은 지금도 어려운 작업이다”라며, “AI로 생성한 콘텐츠는 어떠한 관심도 받지 못할 수도 있다. 하지만 선동 광고 유포 웹사이트 여러 개가 특정 대상을 겨냥한 딥페이크 콘텐츠를 기존 팔로워와 청중을 보유한 러시아 혹은 친러 성향의 인플루언서가 확립한 선동 광고 유포 웹사이트 여러 개를 강조하고자 할 때 신뢰할 만한 자산으로 자리 잡는 데 도움을 주기 위한 목적을 수행한다”라고 설명했다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)
<기사원문>
A Russian Propaganda Network Is Promoting an AI-Manipulated Biden Video
저작권자 © WIRED Korea 무단전재 및 재배포 금지
저작권자 © WIRED Korea 무단전재 및 재배포 금지
이 기사를 공유합니다