본문 바로가기 주메뉴 바로가기 검색 바로가기
검열, AI에 어떤 영향을 미치는가?
상태바
검열, AI에 어떤 영향을 미치는가?
어느 한 연구에서 알고리즘이 특정 단어를 다른 단어와 연결하는 법을 학습한다는 사실이 드러났다. 예를 들어, ‘민주주의’는 ‘안정성’ 혹은 ‘혼돈’이라는 단어와 관련이 있다고 나타날 수 있다.
By WILL KNIGHT, WIRED US

인공지능(AI)은 사업과 대학, 정부 단위의 전 세계적 아이디어와 알고리즘, 능력 등으로 제약을 가하기 매우 어렵다. 그러나 세계적 골드러시에서 발생한 AI 프로그램은 여전히 깊은 문화적 분열을 반영한다.

최근, 새로 발표된 연구에서 정부의 검열이 AI 알고리즘에 얼마나 큰 영향을 미치는가 분석한 내용이 공개됐다. 또, 이와 관련된 알고리즘이 애플리케이션에 영향을 미친다는 사실도 밝혀졌다.

캘리포니아대학교 샌디에고캠퍼스의 정치과학 대학 마가렛 로버츠(Margaret Roberts) 교수와 박사학 과정을 밟고 있는 에디 양(Eddie Yang)은 중국에서 차단된 중국어판 위키피디아와 중국의 지배적인 검색 엔진 ‘바이두’가 비슷한 방식으로 운영된 사실에 주목했다. 이어, 정부 검열 대상이 되는 바이두 베이크(Baidu Baike)를 이용해, AI 언어 알고리즘을 검증했다. 바이두 측은 이와 관련된 답변을 거부했다.

연구팀은 AI 알고리즘이 특정 단어나 구문 검열을 학습하고, 소프트웨어에서 해당 알고리즘을 배울 방식을 찾을 수 있을지 의문을 가지고 있었다. 이는 챗봇이나 음성비서가 사용하는 언어, 번역 프로그램, 혹은 자동 완성 툴 텍스트 등에 영향을 줄 수 있는 요소였다.

연구팀이 사용한 언어 알고리즘은 단어가 많은 양의 텍스트로 함께 등장하는 방식을 분석하고, 이를 학습한다. 물리적 공간에서 서로 다른 단어를 연결된 노드로 표현하며, 단어가 가깝게 나타날수록 더 유사한 의미를 지닌다.

일례로 번역 프로그램은 두 가지 다른 언어의 관계를 살펴보며, 알려지지 않은 단어의 의미를 추론한다.

캘리포니아대학교 샌디에고캠퍼스 연구팀은 소속 연구원이 중국에서 검열된 정보를 반영하는 것과 같다고 말한 AI 알고리즘에서 중대한 차이점을 발견했다. 예를 들어, 중국판 위키피디아로 훈련한 알고리즘은 ‘안정성’과 같은 긍정적인 의미를 지닌 단어를 ‘민주주의’와 가까운 뜻으로 표현했다. 바이두 베이크를 기반으로 훈련한 알고리즘은 ‘민주주의’를 ‘혼란’과 가까운 의미로 나타냈다.

그다음으로 로버츠 교수와 양은 알고리즘을 이용해, 뉴스 헤드라인에서 긍정적 의미와 부정적 의미를 지닌 프로그램을 나누어 평가했다. 연구 결과, 중국판 위키피디아를 기반으로 평가한 알고리즘은 ‘선거’, ‘자유’, ‘민주주의’와 같은 표현을 사용한 뉴스 헤드라인을 더 긍정적으로 이야기한다는 결과가 나왔다. 반대로 바이두 베이크로 훈련한 알고리즘은 ‘감시’, ‘사회 통제’를 사용한 헤드라인을 더 긍정적으로 평가했다. 이러한 연구는 2021년 3월, 2021년도 공정성 책임 및 투명성 콘퍼런스를 통해 발표될 예정이다.
 
[사진=Freepik]
[사진=Freepik]

최근 몇 년간 연구팀은 인종, 성별 편견이 많은 AI 시스템에 어떤 식으로 내재해 있는지 강조했다. 웹이나 오래된 서적에서 복사한 텍스트로 훈련받은 알고리즘은 글을 작성한 인간이 표현한 편견을 복제하도록 학습한다. 2018년, 구글 연구팀이 이미지 인식 알고리즘이 지닌 문화적 편견을 입증했다. 해당 알고리즘은 서양식 결혼식만 제대로 인식하는 등의 문제를 보였다.

로버츠 교수는 연구에서 발견한 차이점의 원인이 전적으로 정부 검열 때문만은 아니라는 사실에 주목한다. 일부 문제는 자기 검열의 결과이거나 단순히 백과사전 글을 작성한 이들과 지닌 문화적 차이 때문일 수도 있다. 그러나 로버츠 교수는 정부 정책이 AI 시스템에 내재한 다른 형태의 편견의 원인이 될 수 있다고 주장한다. 그는 “이를 정부가 형성한 훈련 데이터가 머신러닝 내에서 나타나는 방식을 이해하는 데 시작점이 될 수 있다고 본다”라고 언급했다.

로버츠 교수는 연구원과 국회의원 모두 미래의 정부가 더 뛰어난 효과를 지닌 검열 혹은 특정 가치관을 전달하기 위해 AI 시스템의 훈련 방식에 영향을 미칠 수 있다는 점을 고려해야 한다고 말한다.

컴퓨터 언어학 및 자연어 처리 과정을 전문적으로 연구하는 토론토대학교 교수인 그레임 허스트(Graeme Hirst)는 로버츠 교수와 양의 연구 방식에 약간의 의구심을 지니고 있다. 허스트 교수는 중국판 위키피디아와 바이두 베이크의 차이점을 신중하게 고려하지 않았으며, 여러 알고리즘의 변형 원인이 검열이라고 단정 짓기는 어렵다고 지적한다. 또, 중국판 위키피디아에 반중 정서가 포함됐거나 반대로 지나치게 민주주의를 옹호하는 콘텐츠가 포함됐을 수 있다고 언급한다. 이어, 그는 정서 분석이 얼마나 이루어졌는지, 그 과정에 편견이 개입됐는지 확실하지 않다고 덧붙여 말했다.

다른 전문가는 검열과 알고리즘의 편견 연구가 AI 연구 분야에서 기여하는 부분을 환영한다고 말한다.

AI 윤리를 연구하고, 공정성 책임 및 투명성 콘퍼런스를 공동 창립한 유타대학교의 수레쉬 벤카타수브라마니안(Suresh Venkatasubramanian) 교수는 “특정 측면에서 보면 검열과 알고리즘의 편견 간의 관계 자체는 놀랄 일이 아니다”라고 말한다.

벤카타수브라마니안 교수는 서양 기사를 기반으로 훈련받은 AI 알고리즘은 반중 편견을 포함할 수 있다고 지목한다. 그는 “그러나 여전히 검열과 AI 알고리즘의 편견을 연구해, 문제를 입증하는 것이 중요하다고 생각한다. 그렇다면, AI가 편견을 나타내는 방식과 이를 측정하는 방법, AI의 편견이 어떤 식으로 나타날 것인지 등에 의문을 품게 될 것이다”라고 말했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
How Censorship Can Influence Artificial Intelligence
이 기사를 공유합니다
RECOMMENDED