본문 바로가기 주메뉴 바로가기 검색 바로가기
왜 틱톡은 당신에게 같은 '인종'만 보여줄까
상태바
왜 틱톡은 당신에게 같은 '인종'만 보여줄까
틱톡 알고리즘은 의도치 않게 편향된 추천 시스템을 만들었을 수도 있다

By MARIA MELLOR, WIRED UK

모두가 같은 틱톡 화면을 보는 건 아니다. 만약 당신이 댄스 영상에 참여했다면, 앞으로 당신에게는 레네게이드 댄스 영상이 더 많이 추천될 것이다. 강아지 영상을 오래 본 시청자에게 틱톡은 더 많은 강아지 영상을 추천한다. 

틱톡 알고리즘은 사용자가 좋아하는 걸 더 많이 추천한다. 다만 알고리즘이 의도하지 않은 결과를 낳을 때도 있다. 바로 사용자들이 팔로우하는 계정의 외모나 신체적 특성을 바탕으로 다른 계정을 추천하는 것이다.

마크 파둘 UC버클리 정보대학 인공지능(AI) 연구원은 지난 2월 "틱톡이 이미 사용자가 팔로우하고 있는 계정과 비슷한 인종, 나이, 얼굴 특징을 가진 프로필 사진을 가진 계정을 추천한다"고 주장했다. 
 

[사진=UNSPLASH]

파둘은 자신의 생각이 맞는지 확인하기 위해 새 틱톡 계정을 만들었다. 흑인 여성을 팔로우하자 틱톡은 세 명의 흑인 여성 계정을 추천했다. 머리를 염색한 아시아 남성을 팔로우하자, 틱톡은 머리를 염색한 아시아 남성을 더 많이 추천했다. 파둘이 시각장애인을 팔로우했을 때에도 같은 일이 벌어졌다. 

틱톡은 추천 알고리즘에 프로필 사진이 들어간다는 주장을 부인했다. 틱톡은 자체 테스트를 진행한 결과 모든 사람에게 동일한 추천값이 나타난 건 아니었다고 주장했다. 틱톡 앱은 사용자들이 그동안 반응한 것을 기반으로 새로운 것을 추천하는 '협업 필터링' 시스템을 사용한다. 사용자가 지금까지 수행한 모든 것을 기반으로 다른 것을 추천하는 셈이다. 

틱톡 관계자는 "계정 추천은 유저의 행동에 기반한다"고 설명했다. 그는 "A계정을 팔로우하는 사용자가 대부분 B계정도 팔로우하고 있다면, 알고리즘은 A계정을 팔로우하는 사람이 B계정도 팔로우하고 싶을 거라고 판단한다"고 설명했다. 이런 추천 방식은 무의식중에 편견을 알고리즘에 추가할 가능성이 있다. 

파둘은 "틱톡은 외적인 것을 중요하게 여기는 플랫폼"이라며 "따라서 틱톡의 협업 필터링은 심지어 프로필 사진이 없는 사용자에게도 특정한 결과를 불러 일으킬 수 있다"고 설명했다. 틱톡 알고리즘은 사용자에게 개인화된 경험을 만들어준다고 생각할 수도 있다. 하지만 다시 말하면 필터 버블은 사용자와 비슷한 사람들만 연결해주는 셈이다. 

틱톡 알고리즘이 인종 편향적이라고 비판을 받은 건 이번이 처음이 아니다. 지난해 10월 틱톡 사용자들은 '추천' 페이지에 보다 나은 콘텐츠가 나타나야 한다고 주장했다. 추천 페이지는 각 사용자에게 맞춤형 콘텐츠가 나타나는 곳이다. 시큐러스대학에서 커뮤니케이션과 온라인미디어 수사법을 연구하는 휘트니 필립스 교수는 지난해 1월 "틱톡은 사용자를 자가복제 하는 방식으로 작동된다"고 주장했다. 추천 페이지에 사용자와 비슷한 콘텐츠만 나타난다는 설명이다.

파둘의 주장을 확인하기 위해 와이어드도 새로운 틱톡 계정을 만들었다. 누가 추천되는지 확인하기 위해 추천 페이지에 들어갔다. 첫 번째 추천 계정은 틱톡에서 120만명의 팔로워를 가진 래퍼 KSI였다. KSI를 팔로우하자 세 개의 계정이 새로 추천됐다. 인종을 가늠할 수 없도록 먼 곳에서 사진을 찍은 사람, 축제에 간 것처럼 보이는 흐릿한 사진의 10대, 아주 가까이에서 사진을 찍은 백인 남성이었다. 세 사람의 신원은 알 수 있었지만, 비슷한 점은 전혀 없었다.

이후, 파둘이 발견한 것과 비슷한 결과가 나타나기 시작했다. 반려동물이 있는 계정주에게는 강아지 계정들이 추천됐다. 젊은 흑인 남성을 팔로우하자 흑인 남성 두명과 흑인 만화 한 편이 추천됐다. 87세 남성을 팔로우하자, 나이든 남성에 대한 추천이 이어졌다. 갈색 머리를 한 백인 여성을 팔로우하자 갈색 머리 백인 여성 3명이 더 추천됐다. 프로필 사진이 유니언 잭인 계정을 팔로우하자, 유니언 잭이 프로필 사진인 세 개의 계정이 다시 추천됐다. 그 중 하나는 트롤 얼굴에 유니언 잭이 겹쳐져 있었다.

만약 당신이 노인 계정을 선호한다면, 틱톡은 당신이 비슷한 사람들도 좋아할 거라고 생각한다. 인종적 편견을 더하면 문제는 한 걸음 더 나아간다. 파둘은 "이런 알고리즘에서 잘생긴 유명인사가 많지 않은 소수민족 출신들은 추천에 뜨기가 더 어려워질 것"이라고 말했다. 

사용자들은 소셜미디어에서 비슷한 의견을 더 팔로우한다. 알고리즘이 더해지면 비슷한 성향의 내용을 더 많이 보여주고, 자신과 다른 의견은 볼 수 없도록 분리시킨다. 다른 의견이 존재한다는 사실은 잊게 만든다. 틱톡처럼 시각적인 플랫폼에서 이런 알고리즘은 외모에 적용된다. 파둘의 발견은 그동안 틱톡 알고리즘이 어떻게 작동됐는지 보여주지는 않는다. 하지만 사용자의 편견이 어떻게 이렇게 구체적인 필터버블을 야기했는지 보여준다. 

워싱턴 법학대학에서 인간과 컴퓨터의 상호작용을 연구하는 제반 허슨은 "틱톡은 사람들이 영상을 보는 데 얼마나 많은 시간을 쏟는지, 어떻게 그들이 상호작용했는지를 분석해 개인화된 추천 알고리즘을 만든다"고 말했다. 전 세계 사용자의 데이터는 결국 그들이 선호하지 않는 콘텐츠를 분리하는 알고리즘에 입력되는 셈이다. 

허슨은 "이런 데이터 추출은 특정 인종이나 민족에 대한 편견을 고착화하는 패턴을 만들 수도 있다"고 주장한다. 그는 데이팅 앱 '커피 밋 베이글(Coffee Meets Bagel)'을 예로 들었다. 이 앱은 사용자가 인종 선호도를 표시하지 않았음에도 불구하고, 이용자와 같은 인종의 사람들을 계속 추천해 논란이 됐다. 틱톡이 사용자와 비슷한 성향의 사람들과 콘텐츠를 계속 추천할 경우, 급진화와 분리로 이어질 위험이 있다는 설명이다. 

허슨은 "감시 아래 윤리적인 소비는 없는 것 같다"고 말했다. 열렬한 틱톡 사용자인 그는, 이용자들이 즐거운 영상을 더 많이 보기 위해 그들의 데이터를 희생시킨다고 믿는다. 

틱톡은 수백만 명의 사용자로부터 데이터를 얻는다. 만약 당신이 당신의 틱톡 피드를 다양하게 만들기 위해 노력한다고 해도, 다른 사람이 가진 편견은 계속해서 당신의 노력을 물거품으로 만들 것이다. 

** 위 기사는 와이어드UK(WIRED.co.uk)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 서정윤 에디터)

<기사 원문>
Why is TikTok creating filter bubbles based on your race?

와이어드 코리아=Wired Staff Reporter wiredkorea@wired.kr
이 기사를 공유합니다
RECOMMENDED