본문 바로가기 주메뉴 바로가기 검색 바로가기
범죄 예측, 알고 보면 시민 사회 과거에서 벗어나지 못하도록 하는 주범?
상태바
범죄 예측, 알고 보면 시민 사회 과거에서 벗어나지 못하도록 하는 주범?
알고리즘이 인종차별적 역사를 포함한 데이터로 계속 훈련받는 한 변화의 기회는 없을 것이다.
By CHRIS GILLIARD, WIRED US

예측 기술 활용 사례 중 가장 놀라운 사례는 2021년 5월, 더버지의 맥 스트라우드(Matt Stroud) 기자가 보도한 로버트 맥다니엘(Robert McDaniel)의 사례이다. 맥다니엘은 2020년에만 시카고 오스틴에 거주하면서 오스틴 전체 살인 사건 발생 건수 중 10%에 해당하는 72건을 목격했다. 맥다니엘은 총알을 포함한 총기류를 판매해 체포된 적이 있기는 하나 폭력 전과는 없다. 2013년, 시카고 경찰국의 범죄 예측 순찰 프로그램은 맥다니엘이 말 그대로 살인에 관심이 있는 인물이라고 판단했다. 2011년부터 2016년까지 이어진 시카고 경찰국의 살인 사건 예측을 다룬 범죄 드라마 ‘더 머신(the machine)’의 예측 프로그램은 특정 인물이 폭력 범죄 피해자나 가해자라는 점만 예측할 수 있지만, 어떤 범죄와 관련이 있는지는 제시하지 않는다. (‘더 머신’은 작품의 주인공으로 등장하는 배우가 제작한 드라마이다.) 이와 비슷하게 시카고 경찰국이 실제로 맥다니엘을 기소하는 데 사용한 알고리즘은 시카고 주민 99.9%가 총기 사고에 개입되었다고 예측할 수 있다. 그러나 범죄에 사용한 총기류는 구체적으로 예상하지 못한다.

예측 기술로 살인 사건에 개입했다고 의심할 만한 인물을 인지한 시카고 경찰국은 맥다니엘을 ‘전략적 체포 대상(Strategic Subject List)으로 분류하며, 밀착 감시한다. 그러나 맥다니엘은 특정 범죄 개입 의심 대상이 아니었다. 그러나 감시 기술이 제시한 예측 사항 중 일부는 지나치다는 점에서 맥다니엘의 거주 지역에서 맥다니엘이 경찰과 어느 정도 관련된 맥다니엘이 정보 소식통이었을 것이라고 제시한다. 이 때문에 심각한 수준으로 명예가 실추되었다.

충분히 예측할 수 있는 바와 같이 맥다니엘은 시카고 경찰국의 범죄 예측 프로그램으로 처음 신원이 공개되자 두 차례 총격을 당했다. 처음 총격을 당한 2017년에는 독일 다큐멘터리 프리크라임(Pre-Crime) 개봉과 함께 맥다니엘의 모습이 대중에 공개되었기 때문이다. 이 때문에 맥다니엘은 자신이 잘못이 없다는 것을 확실히 밝히고자 했다. 그러나 비교적 최근인 2020년, 또 다시 총격을 당했다. 맥다니엘은 더버지와의 인터뷰에서 두 차례 모두 시카고 경찰국의 감시 자체가 원인이었다고 말하며, 결과적으로 법률 집행 기관에 협력한다는 의심을 받게 되었다고 전했다. 스트라우드 기자는 “맥다니엘의 견해를 이야기하자면, 총격 사고는 범죄 예측 프로그램 제작자가 피하고자 했던 피해를 일으켰다. 바로 총격 사고 예측이 없을 때, 실제로 발생한 적이 없는 총격을 예측하는 것이다”라고 지적했다.

맥다니엘의 사례와 같은 일은 사실이지만, 깊이 살펴보아야 할 문제도 있다. 과거 경찰이 수집한 데이터 때문에 맥다니엘이 거주하는 인근 지역, 해당 지역 거주자 모두 폭력 범죄 가담자로 분류되었다. 그리고 범죄 예측 프로그램은 폭력 범죄와 관련되었다고 판단한 이들이 미래에도 폭력 범죄에 가담할 것이라고 예측한다. 측, 실제 미래가 아닐 수도 있지만, 단순히 과거를 반복할 것이라고 제시한다. 현재 상황은 과거 기록과 더 일치할 수도, 혹은 관련성이 낮을 수도 있다. 단순한 자가 충족 예언은 아니다. 과거를 미래의 일로 적용하면서 세계에 같은 일이 발생하는 것을 예방할 수 있다는 것을 골자로 한다.

스트라우드 기자가 맥다니엘 사건에 앞서 보도한 기사에 따르면, 맥다니엘이 등장한 시카고 경찰국의 프로그램은 일리노이즈공과대학의 어느 한 엔지니어가 시카고 경찰국을 위해 특수 설계하였다. 시카고 경찰국은 폭력 범죄에 가담했을 확률이 가장 높은 인물 약 400여 명을 확인한 뒤 특별 조사 목록에 추가했다. 2012년 시작돼, 시카고 시 정부 감시기관 보고서로 범죄 가담 용의자 예측의 위험성이 제기되지 2019년 자로 프로그램 사용이 중단됐다. 당시 시 정부 감시 기관 보고서가 지적한 문제는 프로그램이 제시한 결과의 정확성과 대중이 널리 인지하지 못한 법률 집행 기관과 군대에서도 광범위한 영역에서 범죄자 신원 확인 프로그램을 사용하는 것과 같다는 점이다. 일례로 2018년, 더버지 알리 윈스톤(Ali Winston) 기자는 피터 시엘(Peter Thiel)이 창립한 감시 기업 팔란티어(Palantir)가 2012년, 뉴올리언즈주에서 비밀리에 범죄 용의자 예측 프로그램을 사용했다는 사실을 보도했다.

콤프스탯(CompStat), 프레드폴(PredPol) 등 다수 시민에게 더 널리 알려진 프로그램은 시민 개인이 아닌 지리적 영역을 범죄 예측 과정에 활용한다는 점에서 시카고 경찰국과는 다르다. 콤프스탯은 뉴욕시 경찰국이 데이터 기반 순찰 접근방식을 채택한다. 경찰관이 지역별로 범죄 통계를 수집한 뒤 경찰에게 데이터 분석 정보를 알린다. 콤프스탯 사용 시 다음과 같이 수많은 변수가 있다. 바로 뉴욕의 범죄율 감소 책임을 지게 되거나 범죄 발생 건수에 별다른 변화가 없는 상황, 혹은 범죄 예측 데이터 수집 시 질문 대상자에 따른 인정차별적 순찰 증가 문제가 이어질 수 있다.
 
[사진=Unsplash]
[사진=Unsplash]

반면, 프레드폴은 예측 수준이 더 높다. (프레드폴의 근간이 되는 소프트웨어는 이라크전 전투 현장의 사상자 수 예측에 널리 사용하는 플랫폼을 기반으로 한다.) 그러나 범죄 유형과 범죄 발생 장소, 범죄 발생 시간 등 기존의 범죄 데이터를 사용하면, 알고리즘이 미래 범죄 발생 가능성을 예측한다. 다량의 프레드폴 데이터 분석은 공개 웹으로 접근할 수 있는 상태로 남아있다. 이에, IT 전문 매체 기즈모도는 해당 시스템이 유색인종과 빈곤층 주민 비율이 압도적으로 높은 지역을 마구 범죄 예측 지역으로 선정한다는 문제를 발견했다.
 
범죄 예측 시스템은 사회 변화를 요구하지 않는다. 인간이 변화하여 예측 결과와 정확히 일치하는 생활을 하도록 한다.

과거 데이터의 추측 결과로 실행하는 경찰 순찰 시스템은 미래를 결정한다. 디지털 미디어 학자 웬디 후이 콩 춘(Wendy Hui Kyong Chun) 박사는 ‘데이터 차별: 조정과 지역, 인식의 신규 정책(Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition)’을 통해 프레드폴이나 시카고 경찰국의 프로그램과 같은 기술이 가장 보편적으로 사용하는 방식은 아무 기준 분류가 없는 예측 결과 제시이다. 복잡하면서 알 수 없는 미래의 가능성을 예측하는 대신 머신러닝과 인공지능(AI) 기반 통계 조정이 미래를 과거로 제한한다. 즉, 범죄 예측 시스템이 범죄 예측을 위해 미래의 실제 상황을 막는다는 의미이다. 그저 미래가 과거와 똑같다는 점을 확인하기만 한다.

춘 박사는 “포착 후 엄격한 조건으로 선별한 과거 데이터가 인종차별, 성차별 사상을 담았다면, 해당 데이터를 사용하는 알고리즘과 모델은 인종차별이나 성차별이 있을 때만 예측 내용이 옳다고 검증할 것이다”라고 설명했다. 데이터 분석 전체 과정의 가비지 인/가비지 아웃(garbage-in/garbage-out)이라는 익숙한 문제의 부분적인 설명이다. 그러나 역설적이게도 대중에게 판매된 편견 없는 기술이 정확하게 실행될 때 ‘역사적으로 문제가 있다’라고 판단한 부분이 사실은 불가피하거나 면역력을 갖출 수 없는 문제이기도 하다. 개선 노력을 펼치는 인종차별과 같은 사회적 문제를 다루는 데 도움을 주지 않으며, 맥다니엘의 사례가 문제를 축소하여 보여준 바와 같이 범죄 예측 프로그램은 사회가 변화하지 않도록 요구한다. 바로 과거와 똑같은 상황이 이어지도록 변화를 시도해야 한다고 요구한다.

범죄 예측 툴이 탈취 범죄나 다양한 사무직 종사자 집단의 범죄에 초점을 맞춘 적이 드물다는 사실이 눈에 띄게 주목할 수 있는 문제이다. 그러나 사무직 종사자의 임금 절도와 같은 범죄 발생한 자산 피해가 달러 가치 측면에서 재산 범죄를 능가하지만, 사무직 종사자 관련 범죄에는 거의 초점을 맞추지 않는다. 대중이 상상하는 범죄 존재 때문이다. 2022년 2월, 아마존은 임금 규제 당국과 6,170만 달러 상당의 합의를 마쳤다. 미국 연방 통신 위원회(FTC)는 아마존이 운전자에게 2년 6개월 치 임금을 제대로 지급하지 않았다고 판단했다. 아마존의 사례는 전체 보도 내용 중 일부이며, 과징금 이외에는 추가로 청구된 비용이 없다.

알고리즘적 예언 방식은 고정된 범죄의 정의와 발생 장소, 기소 방식 등에 따른 미래 범죄 예측과 예방을 약속한다. 범죄 예측 시 변수는 범죄 예측 공식화 권한이 있는 이들에게 부여하는 권력 구조에만 전적으로 의존한다. 그리고 종종 범죄 예측 구조의 목표는 기존 인종차별주의와 부의 수직 구조를 유지하는 것이다. 아동 정보를 담은 데이터를 범죄 조직 데이터베이스에 포함하도록 하거나 컴퓨터 툴을 개발해 미래 범죄자가 될 아동을 선별하는 등의 구금 논리와 같다. 아동의 삶을 예측하는 일은 사회 변화를 가져오는 것이 아닌 기존의 현실을 확고히 유지하는 것이다. 아동을 구금 순위 평가 시스템에 포함하는 것 자체가 폭력적인 행위이다. 그러나 맥다니엘의 사례는 잠재적 범죄자를 예측하는 시스템이 특정 인물의 범죄 가담이 평생 반복될 것이라는 점을 사실상 보장한다.

큰 인기를 얻으면서 종종 언급되는 알고리즘과 인공지능 관련 주장은 오랫동안 충분한 데이터를 확보할 수 있다면, 알고리즘이 원하는 바를 전달하는 것은 물론이고 원하는 바를 미리 제공하기도 한다는 것이다. 사실상 알고리즘은 사용자보다 사용자에 대해 더 많은 정보를 알고 있다. 스포티파이 재생 목록을 실행할 때나 아마존 관심 상품 목록 관리, 넷플릭스 시청 영화 선택 등 다양한 상황에서 인공지능을 활용할 수 있다. 따라서 실제 범죄 발생 전 범죄 발생을 예측한다는 논리는 “알고리즘이 인종차별 문제와 범죄를 저지르지 않은 이를 미리 구금하려는 문제를 일으키지 않을까?”라는 의문을 제기할 수 있다. 그렇지 않으면, 유색인종을 중심으로 그 어느 때보다 더 많은 시민을 구금할 수 있는 사회가 현재와 같은 상태로 유지하고자 할 수도 있다.

알고리즘을 활용하는 모든 상황에서 알고리즘이 일반적으로 제공하는 바는 새로운 경험이 아닌 과거의 요소를 추가로 돕는 것이다. 알고리즘은 과거에 바란 점과 미래에 바랄 것을 거의 비슷하게 추측한다. 사용자가 현재 원하는 바를 예측하지 않는다. 음원 재생 목록 실행 시 알고리즘이 일으킬 위험성은 적다. 반면, 총기 난사 범죄 용의자일 확률을 판단할 때나 특정 인물을 구금할 때, 예측 알고리즘을 활용하는 것 자체도 위험성이 크지는 않다. 그러나 범죄와 치안, 기술 등 여러 가지 교차점을 고려할 때 인종차별주의로 전환하게 되며, 미래 범죄 예측 상황은 과거의 문제가 똑같이 반복되도록 강화하는 역할만 한다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Crime Prediction Keeps Society Stuck in the Past
이 기사를 공유합니다
RECOMMENDED