본문 바로가기 주메뉴 바로가기 검색 바로가기
사실 검증 기관, 서둘러 AI 동반한 거짓 정보 퇴치 진행
상태바
사실 검증 기관, 서둘러 AI 동반한 거짓 정보 퇴치 진행
악의적인 의도를 지닌 이들이 AI를 이용해 선동광고 성격의 거짓 정보를 확산하면서 선거와 관련하여 분노를 조장한다. 그러나 거짓 정보 확산 수단을 진실 옹호라는 목적으로 변경할 수도 있다.
By LYDIA MORRISH, WIRED UK

스페인 지방 선거 개최일까지 3개월이 조금 넘는 시간이 남았다. 그러나 스페인 사실 검증 기관 뉴트럴(Newtral)의 아이렌 라라즈(Irene Larraz)가 이끄는 팀은 이미 선거 영향을 지지한다. 어느 한 이른 아침, 라라즈의 팀원 절반은 정치 연설과 토론 일정을 확인하고는 정치인의 발언 사실 검증 작업을 준비했다. 그리고 거짓 정보 입증 작업을 담당하는 나머지 절반은 널리 확산된 거짓 정보를 찾으려 웹을 스캔하고는 거짓을 유포하는 단체에 잠입한다. 2023년 5월 지방 선거 이후인 2023년 연말에는 총선이 열릴 예정이다. 총선을 앞두고 온라인에는 각종 거짓 정보가 난무할 확률이 높다. 라라즈는 “거짓 정보를 퇴치하는 일은 어렵다. 이미 거짓 정보 퇴치 작업을 준비했다”라고 말했다.

거짓 정보와 선동 광고의 온라인 확산은 전 세계 단위의 사실 검증 기관에는 힘겨운 전쟁이다. 사실 검증 작업 담당자는 러시아의 우크라이나 침략과 코로나19 대유행병, 선거 유세 운동 등 복잡하거나 빠른 속도로 변하는 상황에서 다량의 정보 검토와 검증 작업을 해야 한다. 사실 검증 작업은 오픈AI의 챗GPT와 같은 대규모 언어 모델을 이용하는 챗봇이 등장하기 시작한 현재 더 어려운 일이 되었다. 챗GPT와 같은 인공지능(AI) 툴은 간단한 클릭으로 자연스러운 표현처럼 보이는 글을 작성하지만, 기본적으로 거짓 정보를 자동 생성한다.

거짓 정보 확산과 사실 검증의 불균형 속에서 사실 검증 기관은 자체 AI 기반 툴의 도움을 받아 사실 검증 작업을 자동화하면서 작업 속도를 높인다. 완벽한 해결책과는 거리가 멀지만, 사실 검증 작업 담당자는 AI 툴이 SNS 기업이 자체 콘텐츠 관리 작업 규모를 확장하는 시점에 너무 빠른 속도로 벌어지는 상황에서 사실 검증과 거짓 정보 유포 세력 간의 격차를 적어도 지금과 같은 수준으로 유지하기를 바란다.

AI 전략 및 관리 자문 기업 베스트 프랙티스 AI(Best Practice AI) 공동 창립자이자 영국 사실 검증 자선 기관 이사인 팀 고든(Tim Gordon)은 “사실 검증 기관과 사실 검증 기관이 확인하는 정보 간 경쟁은 불공정한 경쟁이라고 볼 수 있다”라고 말했다.

고든은 “사실 검증 담당 기관은 종종 거짓 정보 생성 기관보다 규모가 적은 편이다”라며, “생성형 AI가 생성하는 정보 규모와 생성형 AI가 할 수 있는 일의 속도 모두 사실 검증 기관과 거짓 정보 유포 기관 간의 경쟁 격차를 좁히는 일이 더 어려워지기만 할 것임을 의미한다”라고 분석했다.

뉴트럴은 2020년, 다국어 AI 언어 모델인 클레임헌터(ClaimHunter)를 개발하기 시작했다. 클레임헌터는 정치인 발언 사실 검증 방송과 HBO와 넷플릭스 다큐멘터리를 제작한 뉴트럴의 TV 사업 운영부의 매출로 자금을 충당했다.

마이크로소프트의 언어 모델인 BERT를 활용하는 클레임헌터 개발팀은 1만 가지 공식 발표를 이용해 시스템에 데이터나 수치, 비교 내용 등 사실 발언을 포함한 것으로 드러난 문장을 인식하도록 훈련했다. 뉴트럴 최고 기술 관리자 루벤 미구에즈(Rubén Míguez)는 “클레임헌터가 사실 검증 역할을 하도록 훈련 중이다”라고 밝혔다.

검증이 필요한 정치계 인물과 SNS 계정의 주장을 확인하기만 하는 일도 매우 어려우며, 많은 노력이 필요한 작업이다. 클레임헌터는 트위터에 게재된 정치적 주장을 자동으로 감지한다. 그와 동시에 다른 애플리케이션으로 정치인의 발언을 담은 영상과 음성 파일의 음성을 텍스트로 작성한다. 야심을 드러낸 표현이나 질문, 주장에 해당하지 않아 사실이나 거짓으로 입증할 수 있는 대중의 생활과 관련된 주장을 포함한 공식 발언 확인과 강조 후 뉴트럴의 사실 검증 담당자가 검토해야 할 발언으로 분류한다.

클레임헌터 시스템은 완벽하지 않으며, 간혹 견해를 사실로 분류한다. 그러나 클레임헌터의 실수는 사용자가 계속 알고리즘을 재차 훈련하도록 돕는다. 미구에즈는 클레임헌터가 검증 작업을 진행할 가치가 있는 공식 발언 식별 시간을 70~80% 단축했다고 전했다.

라라즈는 “AI 기술을 보유한 것이 더 많은 정치인의 발언을 듣고, 더 많은 사실 확인과 더 많은 거짓 정보 퇴치를 위한 큰 도약이 되었다. 클레임헌터 개발 전에는 지금 진행하는 작업 중 일부만 할 수 있었다”라고 설명했다.

뉴트럴은 런던경제대학, 방송사 ABC 호주와 협력해, 정치인이 반복하는 거짓 발언을 확인하는 주장 매칭 툴을 개발한다. 해당 툴은 기존 주장과 기사를 재활용해 거짓 주장을 무력화하면서 사실 검증 작업 시간을 단축한다.

자동화 사실 검증 작업은 최근 들어 처음 시작된 작업이 아니다. 미국 사실 검증 기관 폴리티팩트(Politifact) 창립자인 빌 에이다르(Bill Adair)는 2013년, 듀크대학교 리포터스 랩(Reporters’ Lab)에서 즉석 검증 툴인 스쿼시(Squash)를 처음 개발했다. 스쿼시는 정치인의 발언을 온라인에서 찾을 수 있는 과거의 사실 검증 내용을 실시간으로 연결하지만, 활용 범위가 제한적이었다. 스쿼시는 정치인의 발언이 거짓임을 교차 인용하기 위한 사실 검증 자료 라이브러리 접근성을 갖출 정도로 규모가 크지 않았다. 또, 스쿼시가 텍스트로 작성한 음성은 인간이 재차 확인해야 할 정도로 오류가 넘쳐났다.
 
[사진=Freepik]
[사진=Freepik]

에이다르는 와이어드에 “스쿼시는 실시간 사실 검증이라는 희망과 어려움을 보여준 첫 단계로 훌륭했다. 이제는 스쿼시로 거둔 과거의 성과를 새로운 수준으로 발전한 AI와 결합해 차세대 사실 검증 툴을 개발할 필요가 있다”라는 견해를 전했다.

현재 스쿼시가 개발된 지 10년이 지났지만, 사실 검증 작업의 100% 자동화를 향해 나아갈 길은 여전히 멀다. 챗GPT와 같은 대규모 언어 모델로 인간이 작성한 것과 같은 글을 생성할 수는 있으나 언어의 미묘한 차이는 감지할 수 없다. 또, 대규모 언어 모델은 전체 내용을 생성하고는 편견과 선입견을 강화하는 경향이 있다.

BERT 모델을 이용해 사실 검증 작업 과정 일부를 자동화하는 영국 사실 검증 자선 단체인 풀팩트(Full Fact)의 AI 사장 앤디 더드필드(Andy Dudfield)는 “대규모 언어 모델은 사실을 알지 못한다. 사실 검증은 매우 미묘한 맥락과 한계의 세계이다”라고 말했다.

AI가 작성하는 글의 내용을 과장하고는 결론을 내리는 것처럼 보이지만, 실제로 복잡한 판단 과정을 거치지 않는다. 발언의 진실성 평가가 불가능하다는 의미이다.

게다가 대규모 언어 모델은 매일 발생하는 사건을 알지 못한다. 즉, 속보 사실 검증에는 유독 유용하지 않다는 의미이다. 미구에즈는 “대규모 언어 모델은 위키피디아 내용을 모두 알고 있다. 하지만 지난주 발생한 일은 알지 못한다. 바로 대규모 언어의 큰 문제이다”라고 지적했다.

케임브리지대학교 자동화 사실 검증 박사후 연구원인 마이클 쉬리치크룰(Michael Schlichtkrull)은  완벽한 자동화 사실 검증 툴의 등장은 매우 거리가 먼 일이라고 말한다. 쉬리치크룰 연구원은 “사이보그 사실 검증 기계와 같이 인간과 기계의 작업이 함께 이루어지도록 결합된 시스템은 이미 등장했으며, 앞으로 몇 년간 이외 유사한 툴이 추가로 등장할 것이다”라고 말했다.

그러나 미구에즈는 머지않아 획기적인 변화가 더 이루어질 것으로 예상한다. 그는 “뉴트럴에서 AI를 이용한 사실 검증 문제를 다루기 시작했을 때 사실 검증 자동화 여부가 의문점이 되었다. 이제 사실 검증 작업의 100% 자동화 가능성이 뉴트럴의 새로운 의문점으로 떠올랐다. 현재 뉴트럴은 사실 검증 자동화 속도를 높이는 데 관심이 있다. 거짓 정보 생성 기술 진화 속도가 거짓 정보 감지 기술보다 더 빠르기 때문이다”라고 전했다.

사실 검증 작업 담당자와 연구원 모두 사실 검증 작업 규모 확산과 속도를 높일 툴을 모색하는 일이 시급하다고 말한다. 생성형 AI가 거짓 정보 생성 자동화를 이용해 온라인으로 유포하는 거짓 정보의 양을 늘리기 때문이다.

2023년 1월, 사실 검증 기업 뉴스가드(NewsGuard) 연구팀은 미국 정치와 보건 복지 부문의 가장 보편적인 거짓 주장과 관련된 명령 100가지를 챗GPT에 입력했다. 이후 챗GPT의 답변 중 80%는 거짓과 잘못된 사실을 기반으로 한 주장임이 확인됐다.

오픈AI는 챗GPT의 거짓 답변 문제와 관련된 의견 공개를 거부했다.

대규모 언어 모델용 훈련 모델 데이터를 제공한 온라인에 확산된 거짓 정보의 양 때문에 대규모 언어 모델 사용자도 의도치 않게 거짓 정보를 유포할 수도 있다. 고든은 “생성형 AI는 의도 여부를 떠나 누구나 거짓 정보를 생성하고 유포할 수 있는 세계를 형성한다”라고 언급했다.

거짓 정보 자동 생성 문제가 심각해지면서 거짓 정보 퇴치에 사용할 자원에도 압박에 시달린다.

듀크대학교 리포터스 랩의 최신 사실 검증 기관 현황 조사 결과, 현재 100여개 국가의 사실 검증 계획이 총 400가지에 이르지만, 전체 계획 중 2/3는 기존 뉴스 기관 내부에서 이용하는 동시에 계획 성장세가 둔화되었다. 리포터스 랩 공동 소장인 마크 스텐셀(Mark Stencel)은 매년 문을 닫는 사실 검증 기관의 수는 평균 12곳이라고 전했다. 2020년 이후 사실 검증 기관 신설 건수 증가 추세가 둔화됐지만, 사실 검증 기관은 포화 상태와는 거리가 멀다. 특히, 50개 주 중 29개 주에 영구 진행되는 사실 검증 프로젝트가 없는 미국에서는 특히 사실 검증 기관이 부족하다.

테크 업계 전반의 대규모 정리해고 흐름과 함께 거짓 정보 확인과 분류 작업의 부담을 독립 기관이 떠안게 될 확률이 높다. 2022년 10월, 일론 머스크가 트위터를 인수한 뒤 트위터는 거짓 정보와 혐오 발언 감독 담당 팀 규모를 축소했다. 메타는 2022년 11월, 수천 명을 해고하면서 콘텐츠 관리팀을 개편했다.

사실 검증 기관에 불공정한 변수가 더해지는 가운데, 사실 검증 작업 담당자는 거액을 투자하지 않고도 사실 검증 작업 규모를 확장할 혁신적인 방안을 찾아야 할 필요가 있다고 말한다. 더드필드 사장은 2021년 게재된 어느 한 연구 논문을 인용하며, “사실 검증 내용 약 13만 개는 전 세계 사실 검증 담당 인력이 직접 작성했다. 인간이 직접 작성한 사실 검증 내용 수치를 자랑스럽게 여겨야 하지만, 웹의 규모를 생각했을 때는 극소수이다. 따라서 사실 검증 기관이 각각의 작업을 최대한 열심히 하는 것이 매우 중요하다”라고 주장했다.

** 위 기사는 와이어드UK(WIRED.co.uk)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Fact-Checkers Are Scrambling to Fight Disinformation With AI
이 기사를 공유합니다
RECOMMENDED