본문 바로가기 주메뉴 바로가기 검색 바로가기
메타 감독위원회, 이스라엘-하마스 전쟁 자동화 관리 비판
상태바
메타 감독위원회, 이스라엘-하마스 전쟁 자동화 관리 비판
메타의 자동화 시스템은 메타 감독위원회의 이스라엘-하마스 전쟁 관련 민감 데이터 제거 관련 규정 관련 실수를 범했다. 이에, 감독위원회는 콘텐츠 관리 담당 인력을 추가 배치하도록 요구했다.
By VITTORIA ELLIOTT, WIRED US

2023년 12월 19일(현지 시각), 메타의 감독위원회(Oversight Board)가 이스라엘-하마스 전쟁 때문에 촉발된 첫 번째 긴급 결정을 발표했다.

감독위원회가 주목한 두 가지 사례는 페이스북과 인스타그램에 게재된 두 가지 영상이 중심이 되었다. 바로 가자지구 알시파 병원 폭격 여파를 보여주는 영상과 이스라엘 인질을 납치하는 모습을 담은 영상이다. 메타는 두 사진이 게재되자 처음에는 삭제했으나 감독위원회가 사례를 조사하자 복구했다. 인질 납치 영상은 2023년 10월 7일(현지 시각), 하마스의 이스라엘 공격 여파로 생성된 메타의 인질 얼굴 공개 금지 정책 위반 때문에 삭제됐다. 메타가 오랫동안 고수한 위험한 단체 및 개인 관련 콘텐츠 제거 정책 위반 사항도 인질 납치 영상 삭제 사유가 되었다. 알시파 병원 관련 콘텐츠는 메타의 위험한 이미지 관련 정책을 위반하여 삭제됐다.

감독위원회의 판결은 메타의 두 가지 콘텐츠 복구 결정을 지지했다. 하지만 메타가 규정 위반 콘텐츠 발견 및 삭제 시 사용하는 자동화 시스템을 중심으로 메타의 몇 가지 다른 관행을 겨냥한다. SNS 플랫폼은 혐오 콘텐츠나 폭력 조장 콘텐츠를 감지하고자 정책을 위반한 게시글을 발견하거나 제거할 수 있는 머신러닝 모델인 ‘분류기(classifiers)’를 이용한다. 머신러닝 모델은 여러 콘텐츠 감지 시스템의 근간이 되는 구성 요소를 구성한다. 인간이 모든 게시글을 직접 보고 정책 위반 사항을 결정하기에는 콘텐츠가 너무 많기 때문이다.
 
[사진=Unsplash]
[사진=Unsplash]

감독위원회 공동 회장 마이클 맥코넬(Michael McConnell)은 와이어드와의 인터뷰에서 “감독위원회는 이전 결정으로 위기 프로토콜 센터 설립 등 특정 조처를 권고했다. 자동화 콘텐츠 관리는 유지될 것이다. 그러나 개인적으로 자동화 시스템 오류가 빈번한 시점에 전략적인 인간의 콘텐츠 관리 개입이 이루어지기 바란다. 인간의 개입은 이스라엘-하마스 전쟁 관련 공공의 이익과 정보가 중요해졌기 때문에 더 중요하다고 본다”라고 전했다.

감독위원회가 조사한 문제의 영상이 제거된 이유는 자동화 시스템이 메타의 정책 위반 우려가 있는 이스라엘 및 가자 상황을 담은 콘텐츠를 더 민감한 콘텐츠로 분류하도록 변경할 수 있기 때문이다. 즉, 시스템이 정상적으로 유지될 수도 있는 콘텐츠를 실수로 삭제할 수 있다는 의미이다. 자동화 시스템의 콘텐츠 제거 실수는 실제 세계에 영향을 미칠 수 있다.

감독위원회는 알시파 병원 영상 관련 결정 발표문에 “감독위원회는 안전 우려가 전쟁 범죄 인식 향상 혹은 전쟁범죄 발생 위험성 비난 목적의 그래픽 콘텐츠 제거나 심각한 인권유린을 지나치게 보여주는 것이 지나치게 신중한 태도를 보이는 것을 정당화할 수 없다고 확신한다. 메타의 제한은 분쟁 지역의 시민 안전에 꼭 필요한 정보 접근을 막는 문제를 일으킬 수도 있다”라고 작성했다. 메타의 현재 정책은 전쟁 범죄나 반인륜적 범죄를 다룬 콘텐츠를 1년간 보관한다. 그러나 감독위원회는 메타가 문서화 시스템을 업데이트 중이라고 발표했다.

메타는 공식 블로그에 “감독위원회의 결정을 환영한다. 메타는 표현과 안전, 메타의 서비스 사용자 모두 중요하게 생각한다”라고 게재했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Oversight Board Criticizes Meta’s Automated Moderation in Israel-Hamas War
이 기사를 공유합니다
RECOMMENDED