본문 바로가기 주메뉴 바로가기 검색 바로가기
독재 정권, 딥페이크에 대한 비판의 목소리 악용한다
상태바
독재 정권, 딥페이크에 대한 비판의 목소리 악용한다
조작된 영상을 찾아내는 것은 기본적으로 필요한 일이다. 그러나 모든 것이 거짓이라고 추측한다면, 독재자는 자신이 저지르는 폭력이 담긴 실제 영상을 의심하도록 유도할 수 있다.
By SAM GREGORY, WIRED US

온라인에서 유명한 어느 한 영상에 미얀마 수도 네피도의 로터리에서 운동 수업을 하는 젊은 여성이 등장한다. 이 여성 뒤에는 군대 차량이 의회 건물에서 체포하기 위해 검문소 근처를 지난다. 영상 속 여성은 실수로 쿠데타 현장을 촬영한 것일까? 영상 속 여성은 계속 춤을 춘다.


이후, 해당 영상은 인기 밈이 되었다. 그러나 처음, 온라인상의 아마추어 탐정은 종종 검증과 이미지 포렌식 전문 용어를 사용하면서 초록색 배경을 뒤에 두고 촬영한 뒤, 군대 차량의 모습을 합성한 것인지 아니면 조작된 영상인지 논쟁을 벌였다. 

해당 영상을 접한 많은 누리꾼은 2021년의 역설을 보여주는 영상이라고 말한다. 그러나 시청각적 요소 조작 주장은 갈수록 많은 사람이 해당 영상이 진짜인지 가짜인지 의심하게 만든다.

영상 사회운동 블로그인 위트니스(Witness)에 인권 유린의 실체를 담은 영상을 담기 위해 대중을 돕기 위해 이루어지는 노력이 더해져, 결과적으로 이른바 딥페이크를 비롯해 갈수록 첨단화되는 시청각적 요소 조작에 더 철저히 대비하기 위한 전 세계적인 노력이 탄생했다. 각종 첨단화된 시청각 요소 조작 기술은 누군가가 실제로 하지 않은 발언과 행동을 하는 것처럼 만들거나 실제 존재하지 않는 사건이나 인물이 실제로 존재하는 것처럼 만들기도 하는 툴을 제공하며, 혹은 영상 내에서 더 간단하게 편집이 이루어지도록 한다.

그러나 광고는 기대를 충족하지 못한다. 실제 딥페이크가 정치와 선거에 가한 위협은 대대적인 관심을 추가하지만, 현실은 더 미묘하다. 딥페이크를 둘러싼 우려가 제기되는 진짜 이유는 위트니스가 미국, 유럽은 물론이고 브라질과 남아프리카공화국, 말레이시아에서 주최한 전문가 회의를 통해 분명하게 드러났다. 회의에는 자신의 명성 혹은 특정 사건과 관련해 지닌 증거를 겨냥한 공격을 견뎌낸 이들과 거짓과의 싸움을 담당한 기자와 사실 확인 담당자를 비롯한 여러 전문가가 참석했다. 회의에 참석한 전문가는 일반 여성과 기자, 정치인 등을 겨냥한 합의 없는 성적인 이미지 조작 때문에 현재 발생하는 피해를 강조했다. 성적 이미지 조작과 그 피해는 실제로 존재하며, 만연한 문제이다. 게다가 최근 보고된 바에 따르면, 그 규모가 커지고 있다.

또한, 회의에 참석한 전문가의 증언이 정확히 짚어낸 바는 딥페이크와 영상 조작 주장이 갈수록 법학 교수 다니엘레 시트론(Danielle Citron)과 바비 체스니(Bobby Chesney)가 언급한 유죄인 것처럼 보이는 영상의 타당한 거부권 주장의 힘인 ‘거짓의 혜택’이 갈수록 널리 악용된다는 사실이다. 상황을 악화하는 유출된 영상을 아무것도 아닌 것처럼 만들거나 국가의 폭력을 담은 스마트폰 영상의 신뢰성 등 독재 정권에서 시민권의 일부 원천을 공격할 때, 종종 “딥페이크 영상이다”, “조작된 것이다”와 같은 발언이 이어진다. 여러 언론 보도에 따르면, 미얀마에서는 군부와 당국이 가짜 이미지를 공유하고 인권 유린을 입증할 실제 증거의 정확성과 통합 행위에 맞섰다.

위트니스 회의에서 미얀마 출신의 참석자를 포함한 언론인과 인권 수호자 다수가 진실과 거짓을 가차 없이 입증해야 한다는 중압감이 두렵다고 설명했다. 모두 자신의 역할로 거짓 소문이 폭로될 뿐만 아니라 사실이 입증된다는 것 자체를 우려했다. 회의적인 견해를 지닌 청중과 대중 집단은 증거를 단순한 추측만으로 예측하고는 자신의 세계관을 보호하고 강화하며 자신의 행동과 당파적 명분을 정당화할 것이다. 일례로 미국에서는 음모론자와 우파 지지 세력이 미국 국회의사당 폭동 이후 공개된 도널드 트럼프 전 대통령의 어딘가 어색한 양심 발언 영상을 ‘딥페이크’라고 주장하면서 그 중요성을 대수롭지 않게 여겼다.
 
[사진=Freepik]
[사진=Freepik]

쉽게 적용할 수 있는 해결책은 없다. 더 강력한 시청각 포렌식과 검증 능력, 청중과 지역 사회 구성원에게 도움을 줄 전 세계 전문가로 구성된 지도자층을 지지해야만 한다. 또, 여러 플랫폼 툴의 접근성을 촉진해, 더 교묘해진 딥페이크는 물론이고 단순하게 잘못된 영상 캡션이나 기본 편집을 거쳐 오랫동안 존재한 잘못된 맥락을 지니거나 편집된 가짜 영상을 더 쉽게 찾아내고 이에 맞서야 한다. 책임감 있는 ‘진정성 인프라(authenticity infrastructure)’는 이미지 조작 여부 및 조작 방법, 조작을 한 인물, 그리고 조작된 영상을 노출할 대상 등을 더 쉽게 추적하면서 조작된 영상 악용 방식을 인식하는 것에서부터 시작하도록 도움을 줄 수 있다.

또, 홍보 도구와 검증 기술이 실제 언론에 대한 음모론적인 ‘기본적인 불신’ 접근 방식을 무한정으로 반복할 수 있어, 실제로는 사실을 보여주는 무수히 많은 영상이 지닌 문제의 중심이 된다는 사실을 솔직히 인정해야 한다. 더 나은 기술과 인프라를 제공하는 접근 방식에는 음모론적인 명분이 건설적 의심에서부터 시작된 단기적인 단계임을 인식해야 한다. 대중에게 일반적인 상식을 지닌 판단을 촉진하기보다는 혼란스러운 속임수를 전달하는 미디어 정보 해독력과 미디어 포렌식 툴이 문제의 일부가 될 수 있다. 우리 모두 일반적으로 접근할 수 있는 수사관이 될 필요는 없다. 먼저, “멈추고(Stop), 출처를 조사(Invsetigate)한 다음, 진실된 보도를 찾아(Find), 원래(Original)의 맥락을 추적한다”라는 이른바 SIFT 방법을 적용해야 한다.

정치적 기회주의도 혼란 속에서 기승을 부린다. 딥페이크에 대한 두려움은 독재 정권이 전 세계적인 가짜 뉴스 법률을 정당화하는 데 악용될 수 있다. 혹은 가짜 뉴스 및 거짓 정보에 맞서기는커녕 진정성 인프라와 같은 방식을 함께 채택해 정권의 권력을 강화하고 대중의 목소리를 억압하는 데 악용될 수도 있다.

‘보이는 것이 진실이다.’라는 말이 더는 이전처럼 중요성을 지니지 않는다. 그러나 처음부터 ‘보이는 것을 믿어서는 안 된다’라고 생각하는 것도 옳지 않다. 우리가 보는 모든 것이 딥페이크로 조작된 것이 아니다. 우리가 보는 것 중에는 진실도 있다. 또, 우리가 보는 것이 진실일 수도 있다는 생각을 지녀야 하는 한 가지 이유는 현재 미얀마에서 발생하는 권리 탄압이라는 현실을 인식하고, 심각하게 받아들여야 할 필요가 있기 때문이다.

이러한 상황에서 앞서 언급한 인기 영상 속에 등장하는 여성은 군부의 쿠데타가 발생하는 모습이 실시간으로 등장하는 배경과 함께 독재 정권에 반대하는 노래에 맞추어 춤을 추기만 한 것이 안타까울 따름이다. 해당 영상 덕분에 더 많은 사람이 미얀마에서 어떤 일이 발생하는지 알게 됐다. 그냥 지나치지 마라. 지금 상황이 갈수록 심각해지고 있으며, 실제로 영상도 중요하다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Authoritarian Regimes Could Exploit Cries of ‘Deepfake’
이 기사를 공유합니다
RECOMMENDED