본문 바로가기 주메뉴 바로가기 검색 바로가기
딥페이크 전문가, 세계의 혼란 없애기 위해 필요하다
상태바
딥페이크 전문가, 세계의 혼란 없애기 위해 필요하다
미얀마의 의심스러운 자백 영상과 함께 제기된 의문은 사실과 거짓을 구분하기 위해 협력 대응을 할 필요가 있는 이유를 설명한다.
By SAM GREGORY, WIRED US

최근, 쿠데타로 정권을 장악한 미얀마 군부는 미얀마 지도자 아웅산 수치를 상대로 기존의 각종 가짜 기소 사건에 여러 기지 심각한 부정부패 혐의를 추가했다. 새로운 기소 사건은 2021년 3월, 처음 배포된 영상을 통해 이루어진 억류된 어느 한 유명 정치인의 공식 발언 이후 이어졌다. 그러나 많은 미얀마인이 해당 영상을 딥페이크 영상으로 의심한다.

해당 영상 속 수감자가 아웅산 수치에게 금과 현금을 건넸다고 상세히 주장하는 부분에서 해당 인물의 음성과 얼굴은 왜곡됐으면서 부자연스러워 보인다. 미얀마 SNS 사용자와 기자 모두 즉시 해당 영상 속 인물의 발언이 진짜인지 의문을 품기 시작했다. 이번 사건은 상황이 악화되기만 하는 문제를 나타낸다. 실제 딥페이크 기술이 더 정교해지면서 실제 영상을 딥페이크 영상으로 치부하는 사람이 증가하고 있다. 어떤 수단과 기술로 딥페이크로 제작된 영상의 주장을 조사할 수 있을까? 그리고, 누가 이를 사용할 수 있을까?

해당 영상 속에서 미얀마 최대 도시인 양곤의 전 주지사인 표 민 뗑(Phyo Min Thein)은 텅 빈 방에 앉아, 공식 성명 내용을 읽는 듯한 모습을 보인다. 표 민 땡 전 주지사의 말은 어딘가 이상하면서 평소와는 목소리가 다르게 들린다. 얼굴은 거의 움직임이 없으며, 처음 유포된 저화질 영상을 보면 말하는 내용과 입 모양이 일치하지 않는다. 많은 사람이 믿고자 하는 듯한 표 민 땡 전 주지사의 영상은 가짜인 것으로 보인다. 온라인 딥페이크 감지 툴의 결과 화면 캡처본이 급속도로 확산됐다. 정치인의 얼굴 주변에 붉은색 박스가 등장했으며, 영상 속 발언이 가짜일 확률이 90% 이상이라는 결과도 함께 나타났다. 미얀마 언론인은 해당 영상의 진위를 파악할 포렌식 능력이 없다. 과거의 공식 발언과 오늘날 군부의 행동 때문에 의심이 증폭됐다. 미얀마 정부 대변인은 소수민족인 로힝야족을 겨냥한 몇 가지 조직화된 이미지를 공유했다. 그와 동시에 군부 쿠데타 주도 세력은 SNS를 학살이 사실이라는 증거로 볼 수 없다고 부인했다.

그러나 표 민 땡 전 주지사의 자백 내용이 실제로 딥페이크로 조작한 영상이 맞을까? 필자는 딥페이크 연구원인 헨리 아이더(Henry Ajder), 딥페이크 크리에이터와 미디어 포렌식 전문가와 논의했다. 일각에서는 표 민 땡 전 주지사의 영상은 저화질이기 때문에 압축과정에서 입 모양과 말아는 내용 간의 불일치가 이루어져, 딥페이크 영상으로 볼 수도 있다고 말한다. 딥페이크 감지 알고리즘도 저화질로 압축된 영상을 그리 신뢰하지 않는다. 표 민 땡 전 주지사의 목소리가 부자연스럽게 들리는 이유는 극도로 압박받는 상황에서 스크립트를 읽어야 했던 상황 탓일수도 있다. 만약, 표 민 땡 전 주지사의 자백 영상이 가짜라면, 매우 뛰어난 수법으로 조작한 영상이라고 할 수 있다. 영상 속 중요한 순간에 표 민 땡 주지사의 목과 가슴의 움직임이 전체적으로 말하는 내용과 일치한 움직임을 보이기 때문이다. 현재, 연구팀과 크리에이터 모두 전반적으로 표 민 땡 전 주지사의 영상이 딥페이크 영상이라는 주장에 회의적인 견해를 내비쳤으나 실제 딥페이크 영상이 맞는지는 확신하지 못한다. 이 시점에서 필자와 같은 인권 운동가가 더 익숙하게 고려할 요소가 있다. 바로 협박이나 강요에 따라 카메라 앞에서 자백했을 가능성이다. 게다가 이러한 본질은 합법적인 사법 절차가 없었다면, 군부의 상황을 고려했을 때 신뢰하기 어렵다.
 
[사진=Freepik]
[사진=Freepik]

이 부분이 중요한 이유는 무엇일까? 강요된 자백이든 딥페이크이든 다음과 같이 똑같은 결과가 이어질 확률이 높기 때문이다. 디지털, 혹은 물리적으로 군부가 수감자의 입에서 원하는 발언이 이어지도록 강요했을 것이다. 그러나 딥페이크를 사용해 서로의 합의 없이 이루어지는 성적인 이미지 생성은 정치적 콘텐츠보다 더 빠르게 등장하는 가운데, 딥페이크와 가짜 미디어 기술은 빠른 속도로 개선과 확산, 상업화, 피해를 유발하는 사용 가능성 확대 등과 같은 문제를 일으킨다. 미얀마의 사례는 딥페이크 콘텐츠를 제작할 능력과 실제 영상을 딥페이크 영상이라고 주장할 기회, 그리고 딥페이크의 문제에 맞설 기회의 격차가 커지고 있다는 사실을 나타낸다.

또, 대중이 딥페이크 감지 기술의 장, 단점을 이해하지 않거나 잘못된 결과를 예측하지 않고 무료 온라인 딥페이크 감지 툴에 의존할 때의 문제를 나타내기도 한다. 딥페이크 감지 기술은 여전히 떠오르는 기술이며, 감지 툴 적용은 또 다른 방식과는 작동하지 않는 한 가지 접근방식에 적용할 수 있다. 누군가가 의도적으로 감지 접근방식에 혼란을 유발할 수 있는 포렌식 반대를 경계해야 한다. 또한, 항상 신뢰할 수 있는 감지 툴을 알 수는 없는 노릇이다.

딥페이크 때문에 진실을 받아들일 수 없고, 진실한 콘텐츠도 딥페이크로 의심하는 세계에서 충돌과 위기를 피할 방법은 없을까?

비전문가에게 의존해 딥페이크를 감지하고, 픽셀 분석 과정을 거쳐 거짓 속에서 진실을 구분해내서는 안 된다. 많은 사람이 미디어 문맹에서 더 간단한 접근방식에 더 훌륭하게 접근할 것이다. 그 대표적인 예시로 다른 출처를 확인하거나 영상의 원래 맥락을 추적하는 시프트(SIFT) 기법을 언급할 수 있다. 사실 많은 사람이 아마추어 포렌식 전문가가 되도록 유도한다면, 신뢰할 수 없는 이미지의 음모론이라는 혼란 속에 빠질 수 있다.

그러나 딥페이크에 더 나은 방식으로 대비할 수 있다. 지난 3년간 필자가 몸담고 있는 글로벌 인권, 영상 및 테크 네트워크 단체인 위트니스(WITNESS)는 딥페이크가 일으키는 문제에 더 훌륭하게 대비할 과정을 이끌어왔다. 브라질과 사하라 사막 이남 최빈국, 동남아시아, 그 외 여러 지역 기자와 사회운동가, 민간 지도자 등과 만나 언론 조작과 관련해 우려하는 바를 물어보았다. 모두 새로운 형태의 속임수를 감지할 툴을 원했다. 다만, 유럽이나 미국의 언론 엘리트 계층만 접할 사치스러운 기술이 된다면, 딥페이크 등 가짜 콘텐츠를 감지할 툴에 접근할 이는 누가 될 것인지 의문을 제기했다. 또한, 미디어 포렌식 기술을 이용해 가짜 콘텐츠를 찾을 이는 누구일지도 의문을 제기했다. 이러한 의문 사항에 자세히 집중하지 않는다면, 감지 기술을 평가하기 위한 기본적인 방향은 기존의 세계적 불평등이 끝없이 이어지게 될 것이다. 기술의 영향에 주목하지 않는 상황이 이미 미얀마와 에티오피아, 인도 등과 같은 국가의 실제 세계에 피해를 주었다.

민간 기관과 미디어 등이 선택할 수 있는 훌륭한 감지 툴을 제작해야 한다. 또, 딥페이크에 가장 취약한 곳에 평등을 부여하기 위해 필요하다. 그러나 자체적인 문제를 해결하지 않고는 이루어질 수 없다. 위트니스와 인공지능(AI) 오픈 플랫폼인 파트너쉽 온 AI(Partnership on AI)가 상담한 아프리카와 남미의 사회 운동가와 권리 옹호 세력이 미디어 기관이 종종 오보와 의도적인 거짓 정보 유포의 근원인 정부와 긴밀한 관계를 지닌 상황에서 신뢰하고 감지 툴에 접근할 수 있는 세력이 누구인지 질문한 것은 타당하다. 그러나 갈수록 현실 속 거짓 영상을 견제할 수 없는 세계 때문에 문제를 겪기 전, 감지 툴 제작과 함께 문제를 해결하려는 시도를 해야 한다.

감지 툴 관련 프로토콜은 전문 지식을 갖춘 이에게 중요한 가짜 프로그램을 생성하고자 하는 능력과 결합되어야 한다. 기술자인 아비브 오바디아(Aviv Ovadya)가 처음 제안한 미디어 포렌식 전문가 역량은 공익성이 높은 긴급 상황에 대비할 수 있다. 고위급 정치인에 대한 부정부패 견제와 관련해 경합된 부패 의혹이 급증한 상황은 이를 보장할 수 있다. 소수의 사례에서만 효과를 볼 수 있기 때문에 자금 투자자와 언론 교육자, SNS 플랫폼 등이 언론인과 권리 옹호 세력, 그 외 진실을 보호하면서 거짓에 맞서는 데 앞장서는 이들이 미디어 포렌식 역량을 깊이 향상하고자 하는 이들의 능력을 강화하도록 약속해야 할 필요가 있다. 현재 미디어 포렌식 능력은 전 세계 언론 기관과 시민 사회 대신 미국 학계와 언론계, SNS 기업, 정보국, 법률 집행 기관 등이 집중하고 있다.

실제 딥페이크와 가짜 영상을 진짜 영상과 구분하지 못하는 대중의 능력을 악용한 딥페이크 주장이 불러일으킬 잠재적 혼란을 모두 없애고자 한다면, 전문가와 매일 사실을 거짓과 구분하는 데 시간을 투자하는 개인이 여러 영상에 의문을 제기하고는 해석할 능력과 적절한 툴을 갖추도록 보장해, 미디어 포렌식과 감지 툴로 제대로 된 결과를 포함하도록 해야 한다. 또한, 그 결과를 딥페이크 판별 영상을 보는 이들과 대중에게 설명할 수 있어야 한다. 미래에는 어떤 영상이라도 딥페이크 영상이라고 칭할 수 없으며, 그 누구도 조작을 주장하지 못해 신뢰가 무너져서는 안 된다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
The World Needs Deepfake Experts to Stem This Chaos
이 기사를 공유합니다
RECOMMENDED