본문 바로가기 주메뉴 바로가기 검색 바로가기
애플, 논란 일으킨 사진 스캐닝 기능 지원 계획 철회
상태바
애플, 논란 일으킨 사진 스캐닝 기능 지원 계획 철회
사용자 기기에서 아동 성 학대 이미지를 찾으려는 신규 시스템에 대한 반발이 계속 이어지자 애플이 시스템 추가 계획을 중단했다.
By BRIAN BARRETT, LILY HAY NEWMAN, WIRED US

2021년 8월, 애플이 아동 성 학대 콘텐츠 유포를 막고자 도입할 새로운 기능 몇 가지를 상세히 밝혔다. 그러나 암호학자부터 프라이버시 옹호 세력, 에드워드 스노든(Edward Snowden)까지 여러 인사의 집단 반발이 즉각 이어졌다. 주로 애플의 아이클라우드 사진 스캔 과정을 거친 아동 성 착취 콘텐츠 발견뿐만 아니라 아이폰이나 아이패드와 연결 지어 확인하겠다는 결정과도 관련이 있다. 몇 주간의 집단 분노가 이어지자 애플이 아이클라우드 사진 스캔 계획을 철회했다. 적어도 지금은 한발 물러났다.

9월 3일(현지 시각), 애플은 공식 성명을 통해 “2021년 8월, 애플은 커뮤니케이션 수단을 이용해 아동을 착취하는 착취자로부터 아동 보호를 돕고 아동 성 착취 콘텐츠 확산을 제한하기 위한 몇 가지 기능 도입 계획을 발표했다. 많은 고객과 프라이버시 옹호 단체, 연구원 및 다른 여러 세력의 피드백을 바탕으로 애플은 자료를 수집하고 계획을 개선한 뒤 매우 중요한 아동 안전 기능을 배포할 시간을 몇 개월 추가할 계획이다”라고 발표했다.

애플은 향후 개선할 사항이나 데이터 수집 과정 진행 방식 등을 상세히 설명하지 않았다. 그러나 프라이버시 옹호 세력과 보안 연구원 모두 애플의 아동 성 착취 콘텐츠 감지 기능 도입 중단 결정을 조심스레 낙관한다.
 
[사진=Unsplash]
[사진=Unsplash]

전직 페이스북 최고 보안 관리자이자 사이버 보안 컨설팅 기업인 크렙스 스태모스 그룹(Krebs Stamos Group)의 공동 창립자인 알렉스 스태모스(Alex Stamos)는 “아동 성 착취 콘텐츠 감지 기능 도입 중단은 애플의 현명한 행보라고 생각한다. 아동 성 착취 방지와 관련해 매우 복잡한 단점이 있으며, 애플이 공평성을 광범위하게 고려하지 않은 채로 최적화된 해결책을 찾을 확률은 매우 낮다”라고 말했다.
 
아동 성 착취 콘텐츠 스캐너는 착취 이미지를 식별하는 일종의 디지털 서명인 암호학적 ‘해시’를 생성하면서 해시가 일치하는 데이터를 다량으로 찾아낸다. 많은 기업이 일종의 해시를 이용한 기능을 이용한다. 대표적으로 애플의 아이클라우드 메일을 언급할 수 있다. 그러나 애플은 해시 사용 범위를 아이클라우드 사진 스캔으로 확대한다는 계획을 통해 사용자가 아이클라우드 계정을 보유했다면, 기기 해시 확인 추가 과정을 도입할 것이라고 제안했다.
 
“현실적으로 애플이 제안한 아동 성 착취 콘텐츠 감지 작업 방식 중 안전한 방식은 없다.”
에반 그리어, 파이트 포 더 퓨처

해시를 확인해 사용자의 사진을 국립 실종·착취 아동 센터(National Center for Missing and Exploited Children)가 제공하는 아동 성 착취 콘텐츠 해시와 비교하는 기능 도입 소식은 다른 목적으로 악용될 가능성과 관련된 우려를 즉각적으로 불러일으켰다. 스탠퍼드 인터넷 관측소(Stanford Internet Observatory) 소속 연구원인 리아나 페퍼콘(Riana Pfefferkorn)은 “애플이 배포하고자 한 아동 성 착취 콘텐츠 감지 기능은 각국 정부가 감시 툴로 바꿀 수도 있고, 애플이 사용자의 기기에서 다른 콘텐츠를 찾도록 만들 수도 있다”라고 설명했다.

애플은 그동안 법률 집행 기관이 iOS 기기 잠금 해제 및 암호화 해독이 가능한 툴을 생성하라는 미국의 여러 정부 기관의 요청 사항을 거부해왔다. 그러나 애플은 중국 등 일부 국가에 순응하여 사용자 데이터를 국가 소유 서버에 보관한다. 세계 각국의 국회의원이 대대적으로 암호화 기능을 저하하려 열을 올리는 시점에 애플의 아동 성 착취 콘텐츠 스캔 기능 도입은 특히 더 큰 우려를 낳았다.

존스홉킨스대학교 암호학자인 매튜 그린(Matthew Green) 교수는 “애플이 아동 성 착취 콘텐츠 감지가 정치적으로 매우 어렵다고 느낀 것이 분명하다. 개인적으로 아동 성 착취 콘텐츠 감지 계획으로 애플이 항상 정부의 압박에 거부한 위치를 유지할 수 없다는 사실을 입증했다고 생각한다. 만약, 애플이 스캔 기능이 반드시 필요하다고 느꼈다면, 자체 서버에서 암호화되지 않은 파일을 스캔해야 한다”라고 지적했다. 그린 교수가 언급한 자체 서버 파일 스캔 작업은 페이스북 등 다수 기업이 아동 성 착취 콘텐츠는 물론이고 테러 게시글을 비롯한 각종 금지된 콘텐츠를 감지하기 위한 표준 관행이다. 더 나아가 그린 교수는 애플이 아이클라우드 저장소에 최종 암호화를 추가해, 애플이 원할 때도 사용자의 아이클라우드 사진을 볼 수 없도록 해야 한다고 주장했다.

애플의 아동 성 착취 스캔 기능 논란은 기술적인 부분에서도 논란이 됐다. 해싱 알고리즘(Hashing algorithms)이 거짓 양성 문제를 일으켜 실제 일치하지 않는 이미지 두 개를 일치한다고 판단하는 실수를 할 수도 있다. 이른바 ‘충돌’이라고 알려진 이미지 판단 실수 오류는 유독 아동 성 착취 콘텐츠와 관련된 우려를 일으킨다. 애플의 아동 성 착취 콘텐츠 감지 기능 도입 계획 발표 후 얼마 지나지 않아 많은 연구원이 애플이 사용하고자 하는 iOS 뉴럴해시 알고리즘(iOS NeuralHash algorithm)에서 충돌을 발견하기 시작했다. 당시 애플은 외부에서 연구할 수 있는 뉴럴 해시 버전과 애플이 사용하고자 하는 iOS 뉴럴해시 알고리즘이 완전히 일치하지 않으며, 애플의 아동 성 착취 콘텐츠 감지 시스템이 정확하다고 반박했다. 보안 기업 메타서트(MetaCert) 창립자 겸 CEO인 폴 왈쉬(Paul Walsh)는 애플의 시스템이 일치하는 해시 30개를 찾아야 경고 알림을 울리고, 인간 검토자가 아동 성 착취 콘텐츠와 거짓 양성을 구분한다는 점에서 충돌이 실질적으로 콘텐츠에 영향을 미치지 않는다고 말했다.

현재 애플이 비판 세력이 만족하도록 선택할 구체적인 변경사항은 확실하지 않다. 그린 교수와 페퍼콘 모두 애플이 사용자의 기기를 포함해 아동 성 착취 콘텐츠 감지에 나서는 대신 스캔 범위를 공유된 아이클라우드 앨범으로 제한할 수 있다고 설명했다. 스태모스는 뉴럴해시 문제가 애플 내부 연구 집단이 특히 검증되지 않은 기술과 관련해 처음부터 더 완벽하게 설립하는 것이 중요하다는 사실을 강조한다고 주장했다.

다른 여러 비판 세력은 애플이 아동 성 착취 콘텐츠 감지 기능 도입을 영구적으로 중단해야 한다는 의견을 확고히 고수한다. 비영리 디지털 권리 옹호 단체인 파이트 포 더 퓨처(Fight for the Future)의 부총괄인 에반 그리어(Evan Greer)는 “기기에서 사진과 메시지 스캔을 시행하겠다는 애플의 계획은 오늘날 테크 기업이 제안한 계획 중 가장 위험한 제안이다. 대중적인 반발 때문에 애플이 어쩔 수 없이 사용자 기기 스캔이라는 무모하면서도 위험한 감시 계획을 중단한 것은 고무적이다. 그러나 현실적으로 애플이 제안한 아동 성 착취 콘텐츠 감지 작업 방식 중 안전한 방식은 없다. 계획 자체를 포기해야 한다”라고 말했다.

애플이 아동 성 착취 콘텐츠 감지 기능 자체를 도입하지 못한 것은 일반적으로 감지 기능을 제공하고자 하는 기업이 의도하지 않는 중대한 양보이다. 페퍼콘은 “솔직히 말하자면, 애플의 아동 성 착취 콘텐츠 기능 도입 계획에 경악했다. 애플이 계획을 아예 포기한다고 발표하기는 어려울 것이다. 다만, 일시적인 중단도 매우 큰 결정이다”라고 언급했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Apple Backs Down on Its Controversial Photo-Scanning Plans
이 기사를 공유합니다
RECOMMENDED