본문 바로가기 주메뉴 바로가기 검색 바로가기
딥페이크 오디오는 정치 악몽
상태바
딥페이크 오디오는 정치 악몽
영국 팩트체크 기관 여러 곳이 영국 야당 대표 케이어 스타머의 의심스러운 음성 파일을 서둘러 제거한다.
By MORGAN MEAKER, WIRED UK

영국 제1 야당이 총선 직전 마지막일 수도 있는 당 연설을 위해 리버풀에 모였을 때 논란이 될 수도 있는 음성 파일 한 편이 X(구 트위터)에 유포됐다.

논란의 영상은 2023년 1월 개설된 @Leo_Hutz라는 사용자가 관리하는 X 계정에 게재된 25초 분량의 음성 파일이다. 음성 파일 속에서 노동당 대표인 케이어 스타머(Keir Starmer)는 당원에게 반복하여 폭언을 퍼붓는다. 음성 파일을 공유한 X 게시글에는 “케이어 스타머 당 대표가 노동당 당원에게 당 회의 도중 욕설을 하는 것을 들었다. 당원에게 역겨운 괴롭힘을 가하는 이가 영국의 다음 총리가 될 수도 있다”라고 작성되었다.

음성 파일이 진짜인지 인공지능(AI)으로 생성한 것인지 혹은 케이어 스타머 대표를 사칭하는 이의 음성을 담은 것인지 확실하지 않다. 영국 사실 검증 기관 풀팩트(Full Fact)는 즉시 음성 파일의 진위를 파악하기 위한 조사에 착수했으며, 이후 해당 음성 파일이 진짜라고 볼 만한 증거가 없다는 조사 결과를 발표했다. 풀팩트 옹호 및 정책 책임자 글렌 타만(Glen Tarman)은 “현재 논의 중인 바와 같이 음성 파일의 진위 여부를 파악할 방법은 한 가지 이상이다. 그러나 음성 파일이 가짜라고 지목할 만한 몇 가지 특성이 있다. 같은 표현을 두 번째로 말할 때 억양이 같은 구절이 있고, 배경 소음에는 약간의 결함이 있다”라고 말했다.

영국을 비롯하여 50곳이 넘는 국가에서 2024년 선거를 앞둔 가운데 오디오 딥페이크는 민주주의 과정의 주된 위험 요소로 떠오르는 추세이다. 오디오 콘텐츠 조작은 갈수록 저렴하면서 쉬운 일이 되는 추세이며, 사실 검증 전문가는 음성 파일이 가짜임을 신속하게 확신하기 어렵다. 오디오 딥페이크는 SNS에 몇 시간 혹은 며칠간 확산된 후 사라진다. 다수 연구원은 오디오 딥페이크 때문에 유권자가 신뢰할 정보를 알지 못하는 정치적 분위기가 형성될 것을 우려한다.

셰필드대학교 디지털 정치학 교수 케이트 돔멧(Kate Dommett)은 “음성 파일이 진짜인지 의심의 씨앗이 피어난 상태에서 온라인에 게재된 음원 파일이나 영상을 접할 때 자칫하면 논의 방식과 정보 확보 방법의 기반이 저하될 수 있다”라고 경고했다.
 
[사진=Freepik]
[사진=Freepik]

X의 조작 언론 정책에는 타인을 속일 의도로 변경이나 조작된 영상과 음성 파일을 가짜 콘텐츠로 분류하거나 제거할 수 있다는 규정이 명시되었다. 논란이 된 케이어 스타머 대표의 음성 파일에는 어떠한 조처도 적용되지 않았다. X는 해당 음성 파일의 진위 조사 여부를 묻는 와이어드의 문의에 답변하지 않았다.

스타머 대표 측은 어떠한 공식 성명도 발표하지 않았다. 그러나 집권 여당인 보수당 소속 일부 의원은 스타머 대표의 음성 파일을 딥페이크라고 칭했다. 톰 투겐하트(Tom Tugendhat) 의원은 “케이어 스타머 노동당 대표의 가짜 음성 파일이 확산되고 있다”라는 X 게시글을 게재했다. 또 다른 보수당 의원인 매트 워먼(Matt Warman) 의원은 “지난 30년간 공직 생활은 긍정적 이유이든 부정적 이유이든 기존 관행의 신뢰성 저하라는 재앙이 이어졌다. 그러나 오늘 확산된 케이머 스타머 대표의 딥페이크 음성 파일은 AI와 SNS 때문에 새로운 수준으로 관행 저하 속도를 높인다. 민주주의가 실제로 위협을 받게 되었다. 콘텐츠 검증 기술이 필요하다”라고 주장했다.

스타머 대표의 딥페이크 음성 파일 논란이 불거지기 일주일 전, 슬로바키아에서는 선거 유세운동 막판에 야당인 진보슬로바키아당 대표가 선거 조작 계획을 이야기한 음성을 담은 가짜 음성 파일이 페이스북에 공개되면서 논란이 되었다. 미칼 시메스카(Michal Šimečka) 진보슬로바키아당 대표는 음성 파일이 가짜라고 맹비난했다. 이후 AFP 사실 검증 부서는 시메스카 대표의 음성 파일에 조작되었다는 징조가 존재한다고 발표했다. 당시 복수 사실 검증 기관이 AI 생성 오디오 파일을 확실히 퇴치할 기술이 부족하다고 하소연했다.

세계 각국은 가짜인 듯한 음성 파일에 대응하는 데 난항을 겪고 있다. 수단과 인도에서는 딥페이크로 추정되는 음성 파일 때문에 혼란스러운 상황이 발생했다. 수단에서는 수년간 공개적으로 모습을 드러낸 적이 없는 전 지도자 오마르 알 바시르(Omar al-Bashir)의 음성 파일 유출본이 조작되었다는 의심이 제기되었다. 인도에서는 야당 정치인 파라니벨 티아가라잔(Palanivel Thiagarajan)이 같은 당 소속 정치인의 부정부패를 비난하는 내용의 딥페이크 음성 파일이 확산됐다. 티아가라잔 의원은 음성 파일이 기계로 생성된 것이라고 주장했다.

기술 연구에 주력한 인권 단체 휘트니스(Witness) 소장 샘 그레고리(Sam Gregory)는 딥페이크 미디어를 손쉽게 생성할 수 있다는 문제는 딥페이크 감지 툴을 대대적으로 접하기 어렵다는 점 때문에 가중된다고 진단했다. 그레고리는 “AI 생성 딥페이크 음성 파일에 적용할 워터마크 추가나 원본 신호 추가 등 공통 표준이 없다. 딥페이크 음성 파일 식별 노력은 기업마다 제각각이다. 현재 시장에 배포된 여러 툴 중 하나를 이용하여 생성한 딥페이크 음성 파일이 생성 과정에 사용한 것과 툴에서 거짓 양성 반응을 보인다면, 특정 기업이 콘텐츠를 생성한 사실을 확인하려 딥페이크 감지 툴을 사용하는 것은 무용지물이다”라고 설명했다.

음성 파일의 진위를 정확히 식별할 수 없다는 문제는 정치인이 실제 음성 파일을 악용할 불투명한 상황을 더할 수도 있다. 그레고리는 “정치인은 신속한 사실 검증 수단이 없을 때 원본 음성 파일이 가짜라고 주장하면서 사실 검증 기관에 음성 파일의 주장을 무력화하도록 압박을 가할 것이다”라고 언급했다.

** 위 기사는 와이어드UK(WIRED.co.uk)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Deepfake Audio Is a Political Nightmare
이 기사를 공유합니다
RECOMMENDED