본문 바로가기 주메뉴 바로가기 검색 바로가기
2024년 딥페이크 선거에 대비하라
상태바
2024년 딥페이크 선거에 대비하라
생성형 AI는 사용 시 발생하는 일을 떠나 이미 빠르게 다가오는 미국 대통령 선거 경선에서 역할을 맡기 시작했다.
By THOR BENSON, WIRED US

인공지능(AI)은 평범한 이들이 일반적인 방식으로만 설명하는 개념이었다. 인간이 사용하는 기기가 종종 AI를 활용하더라도 인간은 AI가 인지한 대상과 촉감에 따른 관계가 없었다. 그러나 모두 불과 1년 사이에 달라졌다. 많은 이들이 오픈AI의 DALL-E, 챗GPT(ChatGPT)와 같은 AI 프로그램 사용에 참여하면서 AI가 급속도로 발전했기 때문이다.

AI를 누구나 사용할 수 있게 되면서 민주주의도 새로운 압박에 놓이게 되었다. AI를 구축할 흥미로운 방법이 여러 가지 등장할 것이다. 반대로 현실을 왜곡할 것이다. 더 나아가 선거에 출마한 후보의 AI 생성 오디오와 이미지, 영상이 확산된다면, AI가 2024년 미국 대통령 선거에도 위협을 가할 수 있다. 현실과 가짜 간의 경계는 이미 거짓 정보가 넘쳐나는 시대에 심각할 정도로 불분명해질 수도 있다.

개인 AI 전문가인 헨리 아이더(Henry Ajder)는 “특히, 2022년을 중심으로 생성형 툴 활용 시 분위기가 극적으로 변하였다”라며, “현재 접하는 AI 생성 콘텐츠의 규모는 AI의 접근성의 극적인 개방과 관련이 있다”라고 말했다.

AI 생성 콘텐츠가 정치에서 역할을 시작하는가가 중요한 부분이 아니다. AI 콘텐츠가 이미 정치적 문제에 영향력을 행사하기 시작했기 때문이다. 최근, 조 바이든 대통령도널드 트럼프의 AI 생성 이미지, 영상이 인터넷에 널리 유포되기 시작했다. 최근, 공화당에서는 AI를 이용하여 바이든 대통령을 공격하는 광고를 제작했다. 문제는 누구나 노트북 전원을 켠 뒤 노력은 최소화한 채로 사실이라고 믿을 만한 정치인의 딥페이크 콘텐츠를 생성할 때 발생할 일이다.

DALL-E, 미드주어니(Midjourney), 스테이블 디퓨전(Stable Diffusion) 등 텍스트를 이용하여 AI 이미지를 생성할 방법은 많다. 또, 일레븐랩스(ElevenLabs)의 툴과 같은 AI 프로그램을 이용하여 누군가의 목소리를 손쉽게 복제할 수 있다. 실제 인간 음성처럼 들리는 딥페이크 영상은 여전히 생성하기 어렵지만, 아이더는 1년 이내로 실제와 같은 딥페이크 영상을 생성할 수도 있을 것이라고 예상한다.

아이더는 “고급 딥페이크를 제작하려면, 뛰어난 전문성은 물론이고 AI가 생성한 결과물을 보정할 제작 후 작업도 전문가 수준으로 뛰어난 능력으로 갖추어야 한다. 영상은 생성형 AI가 한계를 뛰어넘기 위해 나설 다음 영역이다”라고 말했다.
 
[사진=Freepik]
[사진=Freepik]

정치계 유력 인사의 딥페이크 콘텐츠 중 일부는 지난 몇 년 사이에 급부상했다. 2022년, 볼로디미르 젤렌스키 우크라이나 대통령이 우크라이나 군대를 향해 러시아에 항복한다고 선언하는 모습을 담은 딥페이크 영상이 그 대표적인 예시이다. 딥페이크 기술이 더 발전한다면, 정치계 유력 인사의 딥페이크 영상이 실제와 같으면서 생성이 더 쉬워짐과 동시에 더 많이 등장할 것이다. 여러 형태의 생성형 AI 발전 수준을 고려하면, 딥페이크 영상도 실제와 같은 영상을 완성할 수 있을 정도로 발전하는 데 오랜 시간이 걸리지 않을 것으로 보인다.

헨리 파리드(Hany Farid) 캘리포니아대학교 버클리캠퍼스 정보대학원 교수는 “개인적으로 조 바이든이 특정 발언을 하는 영상을 제작하도록 지시하는 명령어만 입력해, 진짜와 같은 영상을 제작할 수 있는 웹사이트는 존재하지 않는다고 생각한다. 하지만 앞으로는 등장할 수 있다고 생각한다. 시간문제이다. 이미 많은 이들이 텍스트 기반 영상 생성 툴을 개발 중이다”라고 말했다.

텍스트 기반 AI 영상 프로그램 개발 작업을 추진하는 대표적인 기업은 런웨이(Runway), 구글, 메타 등이다. 어느 한 기업이 품질이 뛰어난 텍스트 기반 영상 제작 생성형 AI 툴을 배포한다면, 챗GPT 배포 이후 상황과 같이 여러 기업이 다른 버전의 유사한 툴을 서둘러 출시할 것이다. 파리드 교수는 뒤처지는 것을 원하는 기업은 없으므로 많은 기업이 즉시 가능한 기술을 배포하고자 하는 경향이 있다고 분석했다.

파리드 교수는 “현실 세계에 매우 엄격한 지침을 적용한 생성형 AI 툴이 배포될 때마다 놀란다. 새로이 발전한 기술을 출시하면서 고객에게 피해를 주는 일이 없는 것을 바랄 수는 없다. 그러나 많은 기업이 생성형 AI를 출시하면서 효과가 없다는 사실을 인지하면서도 널리 배포될 때 발생하는 일을 지켜보고자 한다”라고 설명했다.

2024년 미국 대통령 선거 기간에 유포된 딥페이크 영상이 급격히 증가한다면, 도널드 트럼프와 같은 인물이 딥페이크 영상을 SNS에 공유하고는 실제라고 주장하는 상황을 상상하기 쉽다. 바이든 대통령이 후보 자격이 없는 발언을 하는 모습을 담은 딥페이크 영상이 선거 직전 널리 확산되고, 많은 유권자가 AI 생성 여부를 절대 알지 못할 수도 있다. 다수 연구원은 결과적으로 가짜 뉴스가 사실보다 더 널리 확산될 수 있다는 사실을 꾸준히 입증하였다.

18개월 남은 2024년 미국 대통령 선거 이전에도 딥페이크가 만연한 기술이 되지 않더라도 딥페이크 콘텐츠가 생성되었다는 사실만으로 선거에 영향력을 행사할 수도 있다. AI로 생성한 가짜 이미지, 오디오, 영상 제작이 상대적으로 수월하다는 사실을 안다면, 많은 누리꾼이 사실인 콘텐츠를 접하더라도 신뢰하지 않을 수 있다.

아이더는 “일부 측면에서 딥페이크와 생성형 AI는 가짜 뉴스 유포 목적으로 선거에 개입하지 않더라도 피해를 줄 수 있다. 생성형 AI의 뛰어난 기술이 무엇이든 조작할 수 있다는 생각에 위험성을 더했기 때문이다. 자신이 등장하는 모습을 담은 불편한 AI 기반 조작 콘텐츠가 등장한다면, 이용하기 좋은 구실이 될 수 있다. 자신이 불편하다고 느끼는 콘텐츠를 가짜라고 주장할 수 있다”라고 말했다.

그렇다면, 무엇이든 가짜라고 주장하는 문제를 어떻게 해결할 수 있을까? 한 가지 해결책으로 C2PA에 주목할 수 있다. C2PA는 스마트폰이든 비디오카메라든 기기로 제작한 모든 콘텐츠에 암호화 서명을 부여하고, 이미지 촬영자와 시간, 장소를 문서로 기록한다. 암호화 서명은 변경할 수 없는 중앙화 장부에 보관된다. 이는 사용자가 진짜 영상을 생성해, 사실임을 입증하도록 돕는다.

다른 방법으로 이미지와 영상에 지문, 워터마크를 남기는 과정을 포함한 방법을 제시할 수 있다. 지문은 기본적으로 데이터 배열로 구성된 콘텐츠의 ‘해시’라는 것을 이용해 진짜 콘텐츠임을 인증하는 것이다. 워터마크는 예상할 수 있는 것처럼 이미지와 영상에 디지털 워터마크를 삽입하는 작업이다.

종종 딥페이크 콘텐츠를 감지하는 AI 툴 개발 작업이 제시되었으나 아이더는 딥페이크 콘텐츠 감지 툴이 해결책이 될 수는 없다고 본다. 딥페이크 감지 기술이 충분히 신뢰할 만한 기술이 아니며, 계속 변하는 생성형 AI 툴의 발전 속도를 따라잡을 수 없기 때문이다.

마지막으로 제시할 수 있는 해결책은 SNS 사용자를 대상으로 한 일종의 즉석 사실 검증 프로그램을 개발하는 것이다. 하버드대학교 인터넷 소사이어티 버크만 클라인 센터(Berkman Klein Center for Internet & Society) 연구원 아비브 오바디야(Aviv Ovadya)는 앱 하나로 다량의 콘텐츠를 강조하고는 신뢰성 정보를 제공하는 맥락 분석 엔진에 전송할 수 있다고 말한다.

오바디야 연구원은 “생성형 AI의 발전 속도에 따라 진화하는 미디어 문해력을 갖추기 쉽지 않다. 생성형 AI 발전 속도에 거의 즉시 반응할 수 있는 미디어 문해력이 필요하다. 온라인에서 무언가를 보고, 맥락을 즉시 파악해야 한다. 온라인으로 보는 대상이 무엇인지 이해해야 한다. 그리고 신뢰할 수 있는 출처를 교차 검증해야 한다”라고 말했다.

만약, 가짜 뉴스를 보게 된다면, 맥락 분석 엔진이 즉시 가짜 뉴스의 신뢰성을 알릴 수 있다. 만약, 가짜라고 의심하는 이미지나 영상을 접한다면, 해당 콘텐츠의 출처를 확인하고는 신뢰성을 판단할 수 있다. 오바디야 연구원은 왓츠앱, 트위터와 같은 SNS 앱 안에서 사용하거나 단순히 맥락 분석 엔진 자체 앱이 등장할 수 있을 것이라고 내다본다. 다만, 오바디야 연구원은 맥락 분석 엔진 개발 기업 창립자 여러 명과 대화한 뒤 맥락 분석 엔진 툴 개발에 투자할 돈이 많지 않다는 문제점을 확인했다.

딥페이크 콘텐츠의 문제점으로 제시할 만한 해결책을 2024년 미국 대통령 선거 이전에 채택할 가능성을 더 지켜봐야 할 것이다. 하지만 딥페이크 기술이 가하는 위협이 더 커지는 가운데, 생성형 AI 개발 투자에는 큰돈이 유입된다. 반면, 딥페이크 콘텐츠를 찾아내 거짓 정보 유포를 막을 방법을 개발할 투자 비용은 거의 없다.

아이더는 “이미 발생한 바와 같이 각종 딥페이크 및 생성형 AI 툴이 우후죽순으로 등장하면서 AI로 생성한 정치적 콘텐츠가 계속 등장할 것으로 예상한다. 근본적으로 생성형 AI, 딥페이크 기술과 같이 급속도로 발전하는 강력한 기술을 다루는 측면에서 뛰어난 위치를 차지하지 못했다고 생각한다”라는 견해를 전했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Brace Yourself for the 2024 Deepfake Election
이 기사를 공유합니다
RECOMMENDED