본문 바로가기 주메뉴 바로가기 검색 바로가기
애플, 프라이버시 보호 강화의 길로 향해...아이클라우드서 아동학대 사진 잡는다
상태바
애플, 프라이버시 보호 강화의 길로 향해...아이클라우드서 아동학대 사진 잡는다
아이클라우드뿐만 아니라 사용자 기기에서도 불법 사진을 검색할 능력을 새로이 갖춘 애플은 암호화 전쟁의 새로운 문제를 열었다.
By ANDY GREENBERG, WIRED US

지난 몇 년간 테크 기업은 ‘사용자의 데이터 암호화를 통한 프라이버시 보호’와 ‘플랫폼상에서 최악의 학대 감지’라는 두 가지 충동 간 갈등을 겪어왔다. 이제 애플은 각종 문제의 실마리를 찾을 새로운 암호화 시스템을 도입하면서 아이클라우드에 저장된 아동 성 학대 이미지를 찾는다. 이론적으로 새로운 형태의 프라이버시 침입을 한다. 애플의 아동 성 학대 이미지 감지는 암호화 기술 작업을 혁신적인 새로운 해결책을 모색하고자 하며, 애플의 새로운 계획을 정부 감시에 위험한 수준으로 동의할 수 있다고 보는 프라이버시 전문가와 암호학 전문가 사이의 분노를 유발했다.

8월 5일(현지 시각), 애플이 아이메시지와 아이클라우드, 시리, 검색 엔진 등에 적용할 새로운 기술적 조치를 도입했다. 애플은 새로 도입하는 조치가 아동 학대를 막기 위해 설계한 기능이라고 밝혔다. 패밀리 아이클라우드 계정의 새로운 선택 설정은 머신러닝을 사용해 아이메시지로 전송된 사진에서 누드 이미지를 감지한다. 또, 아동 학대 이미지 전송과 수신을 차단하면서 게재 경고를 하며, 간혹 부모에게 자녀가 아동 성 학대에 노출됐거나 아동 성 학대 이미지를 보게 됐다는 사실을 경고한다. 시리와 검색 엔진은 누군가가 아동 성 학대 콘텐츠를 검색하거나 보면 이를 경고한다. 'CSAM'이라는 이름으로도 알려진 아동 성착취 콘텐츠 감지 기능은 사용자의 행동을 찾거나 사용자가 발견한 내용을 보고한다.

그러나 논란의 여지가 있지만, 애플이 선보인 가장 기술적인 혁신은 아이폰과 아이패드, 맥이 앞으로 아동 성 학대 이미지 감지 목적으로 미국에서 아이클라우드에 업로드되는 이미지를 확인하는 새로운 시스템을 통합하는 것이기도 하다. 부분적으로는 기기에서, 다른 일부분은 애플 서버를 이용해 이미지를 감지하는 암호화 과정을 이용해, 문제 발견 시 국립 실종·착취 아동 센터(NCMEC), 그리고 궁극적으로는 미국 법률 집행기관에 신고한다.
 
[사진=Pixabay]
[사진=Pixabay]

애플은 CSAM와 함께 다루기 위해 도입하는 아동 성 학대 이미지 감지라는 새로운 기능이 사용자 프라이버시를 위험에 빠뜨릴 일이 없다고 주장한다. 또, 아이클라우드 감지 메커니즘도 뛰어난 암호화 기술을 사용해, 애플 스캐닝 메커니즘이 CSAM이 아닌 가시적 이미지에 접근하는 것을 막는다. 스탠퍼드대학교 암호학자인 댄 보네(Dan Boneh) 교수와 함께 설계한 시스템이며, 애플의 아동 성 착취 이미지 감지 기술 도입 발표에는 일부 유명 암호학 전문가의 승인이 포함됐다.

애플의 시스템을 검토한 이스라엘 바일란대학교 암호학자인 베니 핀카스(Benny Pinkas) 박사는 와이어드에 공식 성명을 통해 “애플 PSI 시스템이 프라이버시와 공공성 간 훌륭한 균형을 제공하며, CSAM 콘텐츠를 확인하면서 훌륭한 사용자 프라이버시 수준을 유지하는 데 큰 도움이 될 것이라고 생각한다. 또, 실제 상황을 잘못 보여주는 결과는 최소화할 것으로 기대한다”라는 견해를 밝혔다.

아동 안전 단체는 즉각 애플의 변화에 찬사를 보냈다. 아동 안전 옹호 단체 손(Thorn)의 CEO인 줄리 코두아(Julie Cordua)는 와이어드에 보낸 공식 성명을 통해 “애플이 우리 시회를 가장 큰 후유증이 남는 순간이 인터넷에 확산된 아동 성 학대 피해자의 정의에 더 가까워지도록 하는 데 필요한 균형을 향해 나아간다”고 주장했다.

마이크로소프트부터 드롭박스까지 다른 여러 클라우드 저장소 제공 기업은 이미 자체 서버에 업로드되는 이미지를 감지하고 있다. 그러나 일부 비판 세력은 사용자 기기에 이미지 분석 기능을 추가한다면, 애플이 새로이 문제가 되는 감시를 향해 나아가면서 법률 집행기관의 압박을 직면해, 그동안 강력하게 주장한 프라이버시 보호 입장이 약화될 것이라고 지적한다.

암호학자 겸 파리 암호화 소프트웨어 기업 심볼릭 소프트웨어(Symbolic Software)의 창립자인 나딤 코베이시(Nadim Kobeissi)는 “아동 학대를 옹호하는 것은 아니다. 그러나 문제 콘텐츠의 일부 범위와 조건을 기반으로 애플이 사용자 기기를 계속 스캔하고 감시하고는 일정 조건에 따라 법률 집행기관에 보고한다는 생각 전체는 겉잡을 수 없는 수준의 재앙이다. 이처럼 아동 성 착취 이미지 감지 목적으로 사용자 기기 감시가 계속된다면, 안드로이드 기기로 변경할 예정이다”라고 밝혔다.
 
“국가 차원의 압박이 영국, 미국, 인도, 중국 등 세계 곳곳에서 이어질 것이다. 개인적으로 향후 여러 국가가 정부 차원에서 애플의 CSAM 감시 시스템을 이용하는 상황을 우려한다.”
매튜 그린, 존스홉킨스대학교

애플의 신규 시스템은 직접 사용자 이미지를 스캔하지도 않고, 애플의 기기나 아이클라우드 서버를 스캔하지도 않는다. 대신, 이미 사용자가 업로드한 여러 CSAM 이미지의 일부로 판단한 경우를 제외하고 애플이 아동 성 학대 사진을 보는 일이 없도록 방지하기 위해 설계한 영리하면서 복잡한 새로운 이미지 분석 기법을 사용한다. 시스템은 사용자가 아이클라우드로 전송하는 모든 이미지의 해시를 받고, 파일을 이미지에서 비롯된 고유한 일련의 특성을 변환한다. 그리고, 포토DNA(PhotoDNA)와 같은 오래된 CSAM 감지 시스템과 마찬가지로 NCMEC가 제공한 다량의 CSAM 이미지 해시와 비교해, 해시가 일치하는 아동 성 학대 사진을 찾아낸다.

또, 애플은 ‘뉴럴해시(NeuralHash)’라고 칭하는 새로운 형태의 해시도 사용한다. 애플은 뉴럴해시를 기반으로 사진 자르기나 색상 보정과 같은 변경 사항이 있어도 문제 사진을 찾아낸다. 침입 방어만큼 중요한 애플의 시스템은 실제로 NCMEC 해시를 사용자 기기에 다운로드하지 않는다. 대신, 몇 가지 암호화 속임수를 이용해 해시를 사용자 휴대폰이나 PC에 다운로드할 수 있는 이른바 블라인드 데이터베이스로 변환하며, 해시에서 등장한 의미 없는 듯한 일련의 특성을 포함한다. 블라인드 작업은 사용자가 해시를 획득하고는 해시를 이용해 시스템의 감지를 피하는 행위를 막는다.

이후, 시스템은 해시의 블라인드 데이터베이스를 사용자 기기에서 해시된 이미지와 비교한다. 비교 결과는 애플의 서버에 업로드하며, 애플은 이를 이중 암호화인 ‘안전 바우처(safety voucher)’라고 칭한다. 첫 번째 암호화 계층은 해시 비교 결과가 일치할 때만 암호화 해제를 할 수 있는 프라이버시 세트 인터섹션(privacy set intersection)이라는 암호화 기법을 사용한다. 일치하지 않는 해시에 대해서는 어떠한 정보도 공개하지 않는다.

두 번째 암호화 계층은 특정한 개수의 해시가 일치할 때만 일치된 내용의 암호화가 해제되도록 설계되었다. 애플은 잘못된 결과를 보여주는 상황을 피하고, CSAM의 단일한 이미지가 아닌 전체 모음을 감지하도록 설계했다고 주장한다. 애플은 찾고자 하는 CSAM 이미지의 한계를 밝히기를 거부했다. 사실, 시간이 지나면서 시스템을 개선하고 잘못된 결과가 나올 확률을 1조 분의 1 미만으로 유지할 확률이 높다. 애플은 이와 같은 안전 조치가 아이클라우드 CSAM 감지 메커니즘에서 발생할 수 있는 감시 위반 문제를 막고, 사용자가 아이클라우드에 업로드하는 다른 이미지를 보지 않고 아동 학대 이미지 모음을 확인할 수 있도록 한다.

고도로 기술적인 과정은 애플이 현재 아이클라우드 사진을 암호화하지 않은 시기에 복잡한 일련의 과정을 겪는 기이한 상황을 거치면서 단순히 여러 클라우드 저장소 공급사와 마찬가지로 자사 서버에서 호스팅하는 이미지에서 CSAM을 확인하는 역할을 수행하는 것이다. 애플은 이번에 도입하는 아동 성 착취 이미지 감지 기능은 기기와 서버 사이를 확인하며, 단순히 서버 이미지를 대규모 스캔하는 것보다 프라이버시 침입 수준이 낮다고 말한다.

그러나 존스홉킨스대학교 암호학자인 매튜 그린(Matt Green) 박사를 포함한 비판 세력은 애플의 아이클라우드 이미지 접근 방식에 더 복잡한 동기가 있으리라 의심한다. 그린 박사는 데이터 보호 과정에도 불구하고 애플이 사용자의 기기에서 이미지를 확인하기 위해 거친 기술적 범위는 이미지가 암호화된 후, 사용자의 휴대폰이나 컴퓨터에 사진을 남기고 서버 감지가 불가능해질 때만 의미가 있다고 지적한다. 또, 그린 박사는 애플이 새로운 형태의 사용자 오프라인 저장소 침입을 나타낼 수 있는 온디바이스 이미지 스캐닝의 일종인 아이클라우드에 업로드하지 않은 사진에도 감지 시스템 적용 범위를 확대할 수 있다고 우려한다. 

혹은 프라이버시 옹호세력에게 더 낙관적인 상황을 이야기해보자면, 그린 박사는 애플이 아이클라우드에 최종 암호화 기능을 추가하고는 자체 CSAM 감지 시스템을 아동 안전 옹호와 법률 집행기관의 요구를 따르면서도 사용자의 사진에 접근할 수 없는 방식으로 클라우드 저장소를 암호화할 수 있다고 말한다. 그는 “애플이 아이클라우드 이미지 감지 시스템과 관련하여 하는 일은 기술적 입증이다. 암호화되지 않은 아이클라우드 사진을 스캔하는 것이 아니다. 스캔하는 사진이 추후 암호화된다면, 필요한 것이다”라고 말했다.

프라이버시 옹호 세력은 지난 몇 년간 아이클라우드에 최종 암호화 기능을 추가하도록 애플에 압박을 가했다. 그러나 애플은 암호화 기술을 가치 있는 조사 도구를 없앤다고 주장하는 연방수사국(FBI) 등 법률 수사기관의 압력 때문에 최종 암호화 기능 추가를 거부한 것으로 알려졌다. 드디어 CSAM 감지 시스템을 드디어 암호화한 아이클라우드로 추가한다면, 결과적으로 여러 가지 프라이버시의 승리를 나타낼 것이다. 그러나 그린 박사가 우려하는 바는 자칫하면 세계 각국의 정부가 시스템을 변경해, 정치적 사진이나 다른 여러 민감 데이터 등 CSAM 이외에 다른 요소를 스캔하도록 시스템을 변경할 가능성이다.

현재 신규 CSAM 감지 기능 지원 범위가 미국으로 제한됐으나 그린 박사는 특히 중국 등 더 많은 권리를 주장하는 다른 여러 국가에도 적용될 것을 우려한다. 결국, 애플은 이미 중국 데이터 센터에 사용자 데이터를 호스트하라는 중국 정부의 요구에 동의한 적이 있다. 그린 박사는 “국가 차원의 압박이 영국, 미국, 인도, 중국 등 세계 곳곳에서 이어질 것이다. 개인적으로 향후 여러 국가가 정부 차원에서 애플의 CSAM 감시 시스템을 이용하는 상황을 우려한다. 애플이 CSAM 시스템 지원 소식을 세계에 밝히려는 이유가 무엇일까?”라고 말했다.

현재 애플의 CSAM 시스템은 적어도 문제가 발생할 위험성이 있는 상황에서 온라인 아동 학대 퇴치에서의 승리를 나타낸다. NCMEC 회장 겸 CEO인 존 클락(John Clark)은 와이어드에 보낸 공식 성명을 통해 “현실적으로 프라이버시와 아동 보호는 공존할 수 있다. 애플의 아동 보호 확대는 획기적인 변화를 가져올 것”이라고 말했다.

애플이 사용자의 프라이버시를 위해 얼마나 변화할지, 그리고 어떤 방향으로 향할지는 전적으로 애플의 다음 행보에 달려있다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Apple Walks a Privacy Tightrope to Spot Child Abuse in iCloud
이 기사를 공유합니다
RECOMMENDED