본문 바로가기 주메뉴 바로가기 검색 바로가기
전직 기자, AI로 온라인 명예훼손 잡는다
상태바
전직 기자, AI로 온라인 명예훼손 잡는다
칼리버AI는 철자 검사를 하듯 거짓 보도 내용 때문에 발생할 명예훼손 문제를 확인하는 툴로 업무량이 지나치게 많은 언론 기관에 도움을 주고자 한다. 그러나 기존 언론 기관을 넘어 더 다양한 곳에 활용될 수 있다.
By GILAD EDELMAN, WIRED US

인터넷 문제를 고치려 한 많은 사례와 같은 이 사례는 2016년에 발생한 여파에서부터 시작한다. 코너 브래디(Conor Brady)는 아일랜드에서 있는 자신의 저택에서 브렉시트 투표와 도널드 트럼프 전 미국 대통령의 당선 소식을 불신한 채로 지켜보았다. 브래디는 이슬람 신자인 이민자 이야기든 힐러리 클린턴 전 국무부 장관의 건강 문제든 선거 내내 이어진 거짓 소식이 의도적으로 유포되는 거짓 소식 확산을 확인할 출처가 없이 허점이 발생한 뉴스 산업의 직접적인 여파라고 보았다.

당시 마찬가지로 전직 기자인 코너의 아들인 닐(Neil)은 유럽 문제 국제 연구소(Institute of International and European Affairs) 소속 디지털 정책 애널리스트로 근무하며, 신경망과 머신러닝을 연구하고 있었다. 브래디 부자는 한 가지 생각을 해냈다. 머신러닝 툴이 지나치게 업무가 지나치게 많은 뉴스룸의 작업을 돕기 위해 에디터와 변호사의 지식을 어느 정도 추산한다면, 훌륭하지 않을까? 브래디 부자가 머신러닝 활용을 생각했을 때, 자동화된 명예훼손 감지라는 기술 활용 사례가 특히 발전한 것처럼 보였다. 명예훼손 소지가 있는 거짓 발표 소송이 뉴스 기관에 가하는 주된 위협이었다. 기사 보도 전, 위험할 수도 있는 내용을 미리 분류한다면, 중요한 시간과 비용을 절약할 수 있을 것이다.

닐은 “아버지께 ‘만약, 명예훼손 문제를 감지하는 머신러닝 툴을 개발한다면, 편집자와 기자가 사용할까?’라는 질문을 했다. 그때, 아버지께서는 확신한다고 말씀하셨다. 그래서 그 후로 명예훼손 위험이 있는 툴을 개발하기로 했다”라고 회상했다.

칼리버AI(CaliberAI)는 브래디 부자가 대화 끝에 정부 기금인 엔터프라이즈 아일랜드(Enterprise Ireland)에게서 30만 파운드의 첫 운영 자금을 받고는 2020년 11월에 창업한 스타트업이다. 칼리버AI의 기본적인 아이디어는 기자와 편집자에게 추가로 자동화된 정보 확인 수단을 제공하는 것이다. 명예훼손의 소지가 있는 내용 보도 위험성 경고 시스템과 같은 역할을 하는 것이다. (미국보다 유럽에서 기자를 상대로 한 명예훼손 소송 제기가 훨씬 더 쉽다) 그러나 장기적인 계획은 더 야심 차다. 유럽연합과 영국 모두 명예훼손을 포함, 유해한 불법 콘텐츠와 관련, 플랫폼이 법적 책임을 지도록 시행하는 법률을 제정 중이다. 미국에서는 사용자가 게재한 문제성 콘텐츠와 관련, 미국 기업의 법적 책임을 보호하는 법률상 방어막과 같은 역할을 하는 통신품위법 제230조 개정을 두고 의회에서 계속 잡음이 발생한다. 전 세계 SNS 플랫폼은 머지않아 신문사가 오랫동안 다루어 왔던 것과 같은 법적 책임에 직면하게 될 것이다. 또, SNS 플랫폼이 법적 책임을 다룰 능력은 브래디 부자가 구축하는 것과 같은 툴의 성공에 달려있다.

명예훼손은 인터넷 역사에서 중요하지만, 종종 간과되었다. 미국에서 통신품위법 제230조는 1996년, 명예훼손 소지가 있는 잘못된 내용 보도 관련 법정 공방의 파장을 다루기 위한 목적으로 최초로 통과됐다. 신문과 TV 뉴스쇼와 같은 기존 매체는 명예훼손죄가 적용되는 내용 보도 관련 소송이나 타인 혹은 타 매체가 제작한 명예훼손 발언을 그대로 내보내는 것과 관련, 엄격한 법적 책임 규정에 직면했다. 1990년대, 1심에서 사용자가 생성한 콘텐츠 관리 단계를 거치는 온라인 플랫폼에도 기존 매체와 같은 법적 책임 기준이 적용돼야 한다고 판결했다. 1심 판결 때문에 다음과 같이 비합리적인 요소를 부추기게 되었다. 바로 기업이 1심 판결과 같은 법적 책임을 지게 될 것을 우려해, 자사 플랫폼에 게재되는 콘텐츠를 일절 관리하지 않고, 모든 사용자에게 전체적으로 무료 서비스를 제공하게 됐다. 혹은 지나치게 신중한 관리 전략을 선택해, 아무 문제가 없는 게시글 상당수에 지나친 제약을 가했다. 또, 의회는 통신품위법 제230조를 통과시키고는 어찌 되었든 플랫폼이 사용자의 게시글과 관련된 사항에 법적 책임을 지지 않도록 했다.

통신품위법 제230조의 이면에서 생각해야 할 핵심 사안은 신문이 하루에 수십 편 혹은 수백 편의 기사를 함께 보도하지만, 인터넷 플랫폼은 사용자가 올리는 게시글 수천 개 혹은 수백만 개, 그리고 결국 수십억 개까지 관리한다. 이처럼 게시글 관리 규모가 매우 크기 때문에 에디터나 법무팀이 업무를 처리하는 것과 같이 모든 게시글을 똑같이 비판적인 태도로 신중하게 검토할 수 없다. 오늘날의 플랫폼은 콘텐츠 관리자 수천 명을 등록하고 있지만, 인간 관리자보다 자동화 툴에 더 의존해, 위반 사항에 주목한다. 그리고, 명예훼손 문제를 다룬다는 매우 힘겨운 과제에서 어려움이 발생한다. 매체가 공식 발표한 내용의 명예훼손죄 적용 여부는 내용이 진실인가 거짓인가에 달려있다. 내용의 진실성은 자동화로 판단하기 특히 어렵다. 금지된 단어 목록과는 달리 명예훼손죄에 해당할 위험성은 무한하다.
 
[사진=Freepik]
[사진=Freepik]

칼리버AI가 나아가는 심층 분석 내용은 명예훼손 적용 여부 판단이라는 세계가 제약이 있는 무한한 영역이라는 점이다. AI 관리가 확고한 진실 여부 판단에 가까워질 수 있는 곳은 없지만, 명예훼손에 해당할 위험성을 지닌 공식 보도 내용에 해당하는 일부분을 확인할 수 있어야 한다.

더블린 트리니티칼리지의 컴퓨터 언어학부 칼 보겔(Carl Vogel) 교수는 칼리버AI가 자체 모델을 구축하는 데 도움을 주었다. 보겔 교수는 명예훼손 위험성이 매우 높은 보도 내용의 공식을 만들기 위한 작업을 했다. 묵시적이거나 명시적으로 드러난 개인 혹은 집단의 이름, 거짓 주장을 사실처럼 보도하는 내용, 일종의 금기어나 금기시되는 아이디어를 사용한 보도 내용(절도나 만취, 기타 부도덕한 내용을 시사하는 표현 등)이 보겔 교수의 공식에 해당한단. 머신러닝 알고리즘에 다량의 텍스트 샘플을 삽입한다면, 알고리즘이 관리하는 기업을 기반으로 패턴과 부정적인 패턴과의 관계를 감지한다. 그리고, 특정 집단이나 사람이 사용했다면 어떤 용어가 명예훼손죄에 해당할 위험성을 지닌 콘텐츠인지 지능적으로 추측한다.

보도 작업 과정에서 명예훼손에 해당하는 콘텐츠를 피하도록 매우 열심히 작업하기 때문에 칼리버AI가 사용할 명예훼손 콘텐츠의 데이터가 없다는 사실은 충분히 논리적이다. 따라서 칼리버AI는 명예훼손죄가 적용될 콘텐츠를 자체적으로 제작했다. 코너 브래디는 언론계에서의 오랜 근무 경험을 활용해, 명예훼손에 해당하는 보도 내용 목록을 작성했다. 그는 “인간의 도덕적 취약점이라는 범위에서 누구나 말할 수 있고, 언론인이 편집과 반려 과정을 거치고 다른 내용과 함께 섞을 수 있는 명예훼손에 해당하는 온갖 나쁜 표현을 생각해보았다”라고 말했다. 그리고, 컴퓨터 언어학자 알란 레이드(Alan Reid) 박사와 데이터 언어학자 애비 레이놀즈(Abby Reynolds) 박사가 감독한 각종 주석에 원본 명단을 사용해 더 큰 범위의 주석을 만들었다. 칼리버AI 팀은 직접 제작한 데이터 세트를 사용해 AI가 문장의 명예훼손죄 적용 가능성 점수를 0점(명예훼손 소지 전혀 없음)부터 100점(명예훼손 소송 위험 높음)까지 평가해 제출하도록 훈련했다.

지금까지 AI 모델 훈련 결과는 명예훼손 철자 검사와 같은 수준까지 도달했다. 현재, 칼리버AI 웹사이트에서 ‘예측 모델을 약간 변경하는 과정에서 거짓된 긍정적/부정적 내용을 알아차렸을 수도 있다’라며 주의를 주는 명예훼손 감지 툴 데모 버전을 사용할 수 있다. 필자가 칼리버AI가 제작한 모델의 데모 버전에 “존을 거짓말쟁이라고 생각한다”라는 문장을 입력했을 때, 프로그램은 명예훼손죄 적용 점수가 명예훼손 위험성이 낮은 수준인 40점이라는 평가 결과를 보여주었다. 이후, “모두 존이 거짓말쟁이라는 사실을 알고 있다”라는 문장을 입력하자 프로그램은 ‘모두 알고 있다’라는 표현(사실)과 ‘존’(특정 인물), ‘거짓말쟁이’(부정적 표현) 등에 주목하며, 명예훼손 점수가 80점이라고 평가했다. 물론, 데모 버전 프로그램이 문제를 해결하지는 않는다. 실제로 필자의 법적 위험성은 실제로 존이 거짓말쟁이라는 사실 입증 가능 여부에 달려있다.

칼리버AI의 최고기술관리자인 폴 왓슨(Paul Watson)은 “언어 수준을 분류한 뒤, 경고 결과를 고객에게 다시 보낸다. 그리고, 고객은 다년간의 경험을 기반으로 ‘프로그램의 경고에 동의하는가?’라는 질문에 적절한 판단을 할 수 있다. 개인적으로 칼리버AI가 구축하고, 시도하는 것이 매우 중요한 사실이라고 생각한다. 칼리버AI가 구축하려는 것은 언론계의 명예훼손죄 소지 문제를 위한 실제 사실이 아니다”라고 설명했다.

전문 기자가 실제로 명예훼손죄 위험성을 경고하는 알고리즘이 필요한가를 두고 궁금증을 지니는 것이 당연하다. 마이애미대학교 커뮤니케이션대학원의 샘 테릴리(Sam Terilli) 교수는 “훌륭한 에디터나 프로듀서, 그리고 경험이 많은 언론인 누구나 자신이 명예훼손 문제를 판단할 수 있는지 알아야 한다. 적어도 위험성이 있거나 더 깊이 분석해야 할 필요가 있는 표현이 문단을 확인할 수 있어야 한다”라고 말했다.

그러나 테릴리 교수가 말한 것과 같은 이상적인 일은 항상 가깝게 다가오지 않는다. 특히, 최대한 빨리 기사를 송출하기 위한 예산이 적거나 압박이 심할 때라면 명예훼손죄 위반 위험성을 오래 검토하기 어렵다.

미디어 전문 변호사 겸 텍사스대학교 언론학 교수인 에이미 크리스틴 샌더스(Amy Kristin Sanders)는 “뉴스 기관에 칼리버AI의 명예훼손 적용 여부 판단 프로그램의 매우 흥미로운 활용 사례가 있으리라 생각한다”라고 언급했다. 샌더스는 면밀한 편집 과정을 거치지 않은 채로 송출될 수 있는 속보 보도와 관련, 특히 명예훼손 위험성이 있다고 지적한다. 이어, 그는 “중소 규모의 언론 보도 기관은 매일 명예훼손 문제를 나타내는 일반적인 조언이 없으며, 다수 프리랜서 기자에게 의존하면서 인력이 부족하다. 따라서 이전보다 갈수록 콘텐츠 편집 검토 작업이 줄어들고 있다. 개인적으로 이 과정에서 칼리버AI의 프로그램과 같은 명예훼손 감지 툴이 가치가 있으리라 생각한다”라는 견해를 전했다.

한편, 샌더스는 캘리버AI의 프로그램과 같은 툴을 채택한다면, 기자가 명예훼손죄 적용 위험이 있는 내용을 보도하기 전의 경고 신호를 무시했을 때, 언론 기관이 법적 책임에 더 노출될 것이라고 말한다. 그는 “개인적으로 명예훼손 감지 툴을 출시했을 때, 고객이 이를 테스트하고 처음 기사를 송출하는 것을 원하지 않을 것이다. 명예훼손 감지 툴을 만든 이들에게 찬사를 보낸다. 그리고, 법원이 어떤 판결을 내릴지 지켜보자”라고 말했다.

칼리버AI가 개발한 프로그램의 첫 번째 사용자 집단은 언론 기관이다. 칼리버AI는 현재 벨기에 언론 기관 미디아후이스(Mediahuis)가 소유한 어느 한 아일랜드 신문사와 첫 번째 공급 계약 협상을 진행하고 있다. 닐 브래디는 주요 SNS 기업과 함께 칼리버AI의 프로그램 도입 예비 단계의 대화를 어느 정도 진행했다고 밝혔다. 그러나 현재 상황에서 SNS 기업은 칼리브AI와 같은 기업에 투자할 명분이 거의 없는 상황이다. SNS 기업은 전반적으로 사용자의 게시글을 문제 삼고 소송을 제기할 수 없기 때문이다. 그러나 이처럼 SNS 기업이 사용자 게시글에 적극적인 조처를 하지 않는 상황이 얼마나 오래 이어지는가를 두고 의문점이 제기된다.

유럽연합에서는 곧 시행될 디지털 서비스 법률에 따라 SNS 플랫폼은 기업 차원에서 불법 콘텐츠가 게재된 사실을 인지하고, 이를 제거하지 못하면 법적 책임을 지게 된다. 그리고, 미국에서는 의회 차원에서 통신품위법 제230조를 폐지하거나 개정하는 사안을 두고 활발한 논의가 이어지고 있다. (칼리버AI가 직면한 가장 큰 어려움을 묻자, 닐 브래디는 약간 농담을 섞어 “조 바이든 대통령에게 법적 책임을 물어야 한다. 바이든 대통령이 법적 책임을 진다면 매우 좋을 것이다”라고 답변했다) SNS 플랫폼의 콘텐츠 문제 관련 새로운 법적 책임 규정의 최종 형태가 어떻든 플랫폼이 명예훼손을 포함해, 지금까지 거의 신경 쓰지 않았던 콘텐츠를 확인하거나 검토하기 위해 문제가 될 가능성을 확인할 새로운 수단이 필요해질 것이 분명하다. 닐 브래디는 SNS 플랫폼의 관리자가 칼리버AI의 툴을 사용하는 것이 문제 콘텐츠 확인 과정에 포함될 수 있으나 우선 사용자가 명예훼손 소지가 있는 게시글을 게재하지 않도록 자체적인 콘텐츠 분석을 적용하는 과정도 포함돼야 한다고 말한다.

닐 칼리버는 “인터넷이 여러모로 심각할 정도로 제 기능을 하지 못한다. 그러나 그와 동시에 검열과 표현의 자유 간 영향을 미치게 될 균형을 유지하는 것이 매우 어렵다. 장기적으로 보았을 때, 문제를 해결할 한 가지 중요한 방안은 기본적으로 더 나은 판단을 시도하고 유도하는 명예훼손 감지 툴과 같은 첨단화된 기술을 추가하는 것이다. 시간에 따라 맞춤형 상호작용을 하는 기술이라고 할 수 있다”라고 설명했다.

통신품위법 제230조 지지 세력의 주장 중, 가장 반박하기 어려울 정도로 타당한 주장은 법률 개정이 이루어진다면, 소규모 플랫폼에 지나치게 큰 피해를 줄 수 있다는 것이다. 페이스북은 자체 콘텐츠 관리 작업을 확대할 경제적 여유가 있다. 그러나 신생 기업은 경제적 여유가 충분하지 않다. 칼리버AI와 같은 스타트업이 문제를 해결할 수 있도록 해준다. 만약, 법률 개정안 때문에 플랫폼 기업이 처음부터 더 엄격한 콘텐츠 관리를 해야 한다면, 처음부터 자체 시스템을 두지 않았을 것이다. 칼리버AI와 같은 기업이 급여 지급이나 기업 운영의 다른 기능적인 측면에서 외주 서비스를 제공하는 다른 여러 스타트업과 같은 방식으로 확산돼, 콘텐츠 관리 툴 수요를 맞춘다. 

언론인이 이끄는 팀이 SNS 콘텐츠 관리의 다음 단계 구상에 도움을 준다면 적합할 것이다. 아일랜드 대학교에서 언론학 강의를 하는 코너 브래디는 언론학 전문 과정에서 법적인 압력뿐만 아니라 정확성과 공정성, 독립성 등 19세기 말로 거슬러 올라가 적용되기 시작한 가치관도 가르친다는 사실에 주목한다. 19세기 말이라는 시간을 고려하면, SNS 기업이 자체적인 유사한 규범을 않은 사실이 다소 의아하다. 코너 브래디는 학생에게 사고 실험을 하는 것을 좋아한다. 그는 “실제로 19세기와 20세기에 기본이 된 편집 가치관과 21세기의 기술로 이를 재창조하는 것을 생각해보아라. 말은 쉽다. 그러나 실제로 시행하는 것은 매우 어렵다”라고 설명했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
These Ex-Journalists Are Using AI to Catch Online Defamation
이 기사를 공유합니다
RECOMMENDED